title: AI漫画工厂 emoji: 👩🎨 colorFrom: red colorTo: yellow sdk: docker pinned: true app_port: 3000 disable_embedding: false short_description: 用一个提示创建你自己的AI漫画 hf_oauth: true hf_oauth_expiration_minutes: 43200 hf_oauth_scopes: [inference-api]
AI漫画工厂
最新版本:AI漫画工厂1.2
AI漫画工厂即将拥有官方网站:aicomicfactory.app
有关我其他项目的更多信息,请查看linktr.ee/FLNGR。
在家运行项目
首先,我想强调所有内容都是开源的(参见这里、这里、这里和这里)。
然而,该项目并非可以立即复制和运行的单一Space:它需要各种组件来运行前端、后端、LLM、SDXL等。
如果你尝试复制项目,打开.env
文件,你会看到它需要一些变量。
提供商配置:
LLM_ENGINE
:可以是INFERENCE_API
、INFERENCE_ENDPOINT
、OPENAI
、GROQ
、ANTHROPIC
之一RENDERING_ENGINE
:目前可以是"INFERENCE_API"、"INFERENCE_ENDPOINT"、"REPLICATE"、"VIDEOCHAIN"、"OPENAI"之一,除非你编写自定义解决方案
认证配置:
AUTH_HF_API_TOKEN
:如果你决定使用Hugging Face作为LLM引擎(推理API模型或自定义推理端点)AUTH_OPENAI_API_KEY
:使用OpenAI作为LLM引擎AUTH_GROQ_API_KEY
:使用Groq作为LLM引擎AUTH_ANTHROPIC_API_KEY
:使用Anthropic(Claude)作为LLM引擎AUTH_VIDEOCHAIN_API_TOKEN
:访问VideoChain API服务器的密钥令牌AUTH_REPLICATE_API_TOKEN
:如果你想使用Replicate.com
渲染配置:
RENDERING_HF_INFERENCE_ENDPOINT_URL
:如果你决定使用自定义推理端点,则必需RENDERING_REPLICATE_API_MODEL_VERSION
:VideoChain API服务器的URLRENDERING_HF_INFERENCE_ENDPOINT_URL
:可选,默认为空RENDERING_HF_INFERENCE_API_BASE_MODEL
:可选,默认为"stabilityai/stable-diffusion-xl-base-1.0"RENDERING_HF_INFERENCE_API_REFINER_MODEL
:可选,默认为"stabilityai/stable-diffusion-xl-refiner-1.0"RENDERING_REPLICATE_API_MODEL
:可选,默认为"stabilityai/sdxl"RENDERING_REPLICATE_API_MODEL_VERSION
:可选,如果你想更改版本
语言模型配置(取决于你决定使用的LLM引擎):
LLM_HF_INFERENCE_ENDPOINT_URL
:"<使用你自己的>"LLM_HF_INFERENCE_API_MODEL
:"HuggingFaceH4/zephyr-7b-beta"LLM_OPENAI_API_BASE_URL
:"https://api.openai.com/v1"LLM_OPENAI_API_MODEL
:"gpt-4-turbo"LLM_GROQ_API_MODEL
:"mixtral-8x7b-32768"LLM_ANTHROPIC_API_MODEL
:"claude-3-opus-20240229"
此外,还有一些社区共享变量,你可以忽略它们。 这些变量不是在你自己的网站或计算机上运行AI漫画工厂所必需的 (它们旨在与Hugging Face社区建立连接, 因此只适用于官方Hugging Face应用程序):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
:你不需要这个COMMUNITY_API_URL
:你不需要这个COMMUNITY_API_TOKEN
:你不需要这个COMMUNITY_API_ID
:你不需要这个
请阅读.env
默认配置文件以获取更多信息。
要在本地自定义变量,你应该创建一个.env.local
文件
(不要提交这个文件,因为它会包含你的秘密)。
-> 如果你打算使用本地、云托管和/或专有模型运行它,你需要编写代码👨💻。
LLM API(大型语言模型)
目前,AI漫画工厂通过推理端点使用zephyr-7b-beta。
你有多个选项:
选项1:使用推理API模型
这是最近新增的选项,你可以使用Hugging Face Hub上的一个模型。默认情况下,我们建议使用zephyr-7b-beta,因为它会提供比7b模型更好的结果。
要激活它,请创建一个.env.local
配置文件:
LLM_ENGINE="INFERENCE_API"
HF_API_TOKEN="你的Hugging Face令牌"
# 默认使用"HuggingFaceH4/zephyr-7b-beta",但你可以更改这个
# 注意:你应该使用能够生成JSON响应的模型,
# 因此强烈建议至少使用34b模型
HF_INFERENCE_API_MODEL="HuggingFaceH4/zephyr-7b-beta"
选项2:使用推理端点URL
如果你想在运行在Hugging Face推理端点服务上的私有LLM上运行AI漫画工厂,请创建一个.env.local
配置文件:
LLM_ENGINE="INFERENCE_ENDPOINT"
HF_API_TOKEN="你的Hugging Face令牌"
HF_INFERENCE_ENDPOINT_URL="你的推理端点URL路径"
要在本地运行这种LLM,你可以使用TGI(请阅读这篇文章以了解更多关于许可的信息)。
选项3:使用OpenAI API密钥
这是最近新增的选项,你可以使用OpenAI API密钥来使用OpenAI API。
要激活它,创建一个.env.local
配置文件:
LLM_ENGINE="OPENAI"
# 默认的openai api基础url是:https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL="如果你有特殊权限,可以使用自定义的OpenAI API基础URL"
LLM_OPENAI_API_MODEL="gpt-4-turbo"
AUTH_OPENAI_API_KEY="你自己的OpenAI API密钥"
选项4:(新的,实验性)使用Groq
LLM_ENGINE="GROQ"
LLM_GROQ_API_MODEL="mixtral-8x7b-32768"
AUTH_GROQ_API_KEY="你自己的GROQ API密钥"
选项5:(新的,实验性)使用Anthropic(Claude)
LLM_ENGINE="ANTHROPIC"
LLM_ANTHROPIC_API_MODEL="claude-3-opus-20240229"
AUTH_ANTHROPIC_API_KEY="你自己的ANTHROPIC API密钥"
选项6:分叉并修改代码以使用不同的LLM系统
另一个选项是完全禁用LLM,并用另一个LLM协议和/或提供商(例如Claude、Replicate)替代,或者用人工生成的故事替代(通过返回模拟或静态数据)。
注意
我可能会在未来修改AI漫画工厂,使其更易使用(例如,添加对Claude或Replicate的支持)
渲染API
这个API用于生成面板图像。这是我为Hugging Face上的各种项目创建的API。
我还没有为它写文档,但基本上它只是其他现有API的"包装器™":
- @hysts的hysts/SD-XL Space
- 以及其他用于制作视频、添加音频等的API..但你不需要它们来使用AI漫画工厂
选项1:自己部署VideoChain
不幸的是,我还没有时间为VideoChain写文档。 (当我写完后,我会更新这个文档,指向VideoChain的README)
选项2:使用Replicate
要使用Replicate,创建一个.env.local
配置文件:
RENDERING_ENGINE="REPLICATE"
RENDERING_REPLICATE_API_MODEL="stabilityai/sdxl"
RENDERING_REPLICATE_API_MODEL_VERSION="da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf"
AUTH_REPLICATE_API_TOKEN="你的Replicate令牌"
选项3:使用其他SDXL API
如果你分叉项目,你将能够修改代码以使用你选择的Stable Diffusion技术(本地的、开源的、专有的、你的自定义HF Space等)。
它甚至可以是其他东西,比如Dall-E。