Project Icon

Fooocus

AI图像生成软件 简单操作 高质量输出

Fooocus是一款结合Stable Diffusion开源特性和Midjourney简易操作的AI图像生成软件。它自动优化内部流程,用户只需关注提示词和图像即可。软件支持放大、变化和局部重绘等功能,具有独特的提示词处理引擎。Fooocus适用于Windows、Linux和Mac平台,最低需4GB显存。安装便捷,界面直观,为AI艺术创作提供便利。

非精选随机批次,仅通过输入两个词"森林精灵"生成,

无需任何参数调整,无需任何奇怪的提示标签。

另请参阅非精选的泛化性和多样性测试这里这里这里这里

在整个开源社区中,只有Fooocus能达到这种级别的非精选质量。

Fooocus

Fooocus是一款图像生成软件(基于Gradio)。

Fooocus是对Stable Diffusion和Midjourney设计的重新思考:

  • 从Stable Diffusion学习,该软件是离线、开源和免费的。

  • 从Midjourney学习,不需要手动调整,用户只需专注于提示词和图像。

Fooocus已包含并自动化了大量内部优化和质量改进。用户可以忘记所有那些困难的技术参数,只需享受人机交互,以"探索新的思维媒介并扩展人类物种的想象力"[1]。

Fooocus简化了安装过程。从按下"下载"到生成第一张图像,所需的鼠标点击次数严格限制在3次以内。最低GPU内存要求为4GB(Nvidia)。

[1] David Holz, 2019年。

最近在Google搜索"fooocus"时出现了许多假网站。请不要相信这些网站 - 这里是Fooocus唯一的官方来源。

安装Fooocus

从Midjourney迁移到Fooocus

使用Fooocus就像(可能比)Midjourney一样简单 - 但这并不意味着我们缺乏功能。以下是详细信息。

MidjourneyFooocus
高质量文本到图像转换,无需太多提示工程或参数调整。
(未知方法)
高质量文本到图像转换,无需太多提示工程或参数调整。
(Fooocus有一个离线的基于GPT-2的提示处理引擎和大量采样改进,因此结果总是很漂亮,无论你的提示词是像"花园里的房子"这样简短还是长达1000字)
V1 V2 V3 V4输入图像 -> 放大或变化 -> 轻微变化 / 强烈变化
U1 U2 U3 U4输入图像 -> 放大或变化 -> 放大(1.5倍)/ 放大(2倍)
局部重绘 / 上 / 下 / 左 / 右(平移)输入图像 -> 局部重绘或外部绘制 -> 局部重绘 / 上 / 下 / 左 / 右
(Fooocus使用自己的局部重绘算法和模型,因此结果比所有使用标准SDXL局部重绘方法/模型的其他软件更令人满意)
图像提示输入图像 -> 图像提示
(Fooocus使用自己的图像提示算法,因此结果质量和提示理解比所有使用标准SDXL方法的其他软件(如标准IP-Adapters或Revisions)更令人满意)
--style高级 -> 风格
--stylize高级 -> 高级 -> 引导
--niji多个启动器:"run.bat"、"run_anime.bat"和"run_realistic.bat"。
Fooocus支持Civitai上的SDXL模型
(如果你不知道Civitai,可以谷歌搜索"Civitai")
--quality高级 -> 质量
--repeat高级 -> 图像数量
多重提示(::)只需使用多行提示
提示权重你可以使用"I am (happy:1.5)"。
Fooocus使用A1111的重新加权算法,因此如果用户直接从Civitai复制提示,结果会比ComfyUI更好。(因为如果提示是用ComfyUI的重新加权写的,用户不太可能复制提示文本,因为他们更喜欢拖动文件)
要使用embedding,你可以使用"(embedding:file_name:1.1)"
--no高级 -> 负面提示
--ar高级 -> 宽高比
InsightFace输入图像 -> 图像提示 -> 高级 -> 换脸
描述输入图像 -> 描述

我们还借鉴了LeonardoAI的一些最佳部分:

LeonardoAIFooocus
提示魔法高级 -> 风格 -> Fooocus V2
高级采样器参数(如对比度/锐度等)高级 -> 高级 -> 采样锐度 / 等
用户友好的ControlNets输入图像 -> 图像提示 -> 高级

Fooocus还为高级用户开发了许多"仅限fooocus"的功能,以获得完美的结果。点击这里浏览高级功能。

下载

Windows

你可以直接下载Fooocus:

>>> 点击此处下载 <<<

下载文件后,请解压缩并运行"run.bat"。

image

首次启动软件时,它会自动下载模型:

  1. 根据不同的预设,它会将默认模型下载到"Fooocus\models\checkpoints"文件夹。如果你不想自动下载,可以提前下载这些模型。
  2. 请注意,如果你使用局部重绘功能,在第一次重绘图像时,它会从这里下载Fooocus自己的局部重绘控制模型,作为文件"Fooocus\models\inpaint\inpaint_v26.fooocus.patch"(该文件大小为1.28GB)。

从Fooocus 2.1.60版本开始,你还将拥有run_anime.batrun_realistic.bat。它们是不同的模型预设(需要不同的模型,但会自动下载)。点击这里查看更多详情

从Fooocus 2.3.0版本开始,你还可以直接在浏览器中切换预设。请记住,如果你想更改默认行为,可以添加这些参数:

  • 使用--disable-preset-selection在浏览器中禁用预设选择。
  • 使用--always-download-new-model在切换预设时下载缺失的模型。默认情况下会回退到相应预设中定义的previous_default_models,也可以查看终端输出。

image

如果你已经有这些文件,可以将它们复制到上述位置以加快安装速度。

请注意,如果你看到**"MetadataIncompleteBuffer"或"PytorchStreamReader"**,那么你的模型文件已损坏。请重新下载模型。

以下是在一台配置相对较低的笔记本电脑上进行的测试,该笔记本电脑具有16GB系统内存6GB显存(Nvidia 3060笔记本版)。在这台机器上的速度约为每次迭代1.35秒。非常令人印象深刻 - 现在配备3060的笔记本电脑通常价格非常合理。

image

此外,最近许多其他软件报告称,高于532版本的Nvidia驱动程序有时比531版本的Nvidia驱动程序慢10倍。如果你的生成时间很长,可以考虑下载Nvidia驱动程序531笔记本版Nvidia驱动程序531桌面版

请注意,最低要求是4GB Nvidia GPU内存(4GB VRAM)8GB系统内存(8GB RAM)。这需要使用Microsoft的虚拟交换技术,在大多数情况下,你的Windows安装会自动启用它,所以你通常不需要做任何事情。但是,如果你不确定,或者如果你手动关闭了它(真的有人会这么做吗?),或者如果你看到任何"RuntimeError: CPUAllocator",你可以在这里启用它:

点击此处查看图片说明。

image

如果你仍然看到"RuntimeError: CPUAllocator",请确保每个驱动器至少有40GB的可用空间!

如果你使用类似的设备但仍然无法达到可接受的性能,请提出问题。

请注意,不同平台的最低要求是不同的。

另请参阅此处的常见问题和故障排除。

Colab

(最后测试时间 - 2024年8月12日,由mashb1t进行)

Colab信息
在Colab中打开Fooocus 官方
在Colab中,你可以修改最后一行为!python entry_with_update.py --share --always-high-vram!python entry_with_update.py --share --always-high-vram --preset anime!python entry_with_update.py --share --always-high-vram --preset realistic,分别对应Fooocus默认版/动漫版/写实版。

你也可以在用户界面中更改预设。请注意,这可能导致60秒后超时。如果发生这种情况,请等待下载完成,将预设更改为初始状态然后再改回你选择的预设,或者重新加载页面。

注意,由于Colab免费版资源相对有限(某些"大型"功能如图像提示可能导致免费版Colab断开连接),此Colab默认会禁用细化器。我们确保基本的文本到图像功能在免费版Colab上始终可用。

使用--always-high-vram会将资源分配从RAM转移到VRAM,在默认T4实例上实现性能、灵活性和稳定性的最佳平衡。更多信息请参见这里

感谢camenduru提供的模板!

Linux(使用Anaconda)

如果你想使用Anaconda/Miniconda,可以执行以下操作:

git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
conda env create -f environment.yaml
conda activate fooocus
pip install -r requirements_versions.txt

然后下载模型:将默认模型下载到"Fooocus\models\checkpoints"文件夹。或者让Fooocus使用启动器自动下载模型

conda activate fooocus
python entry_with_update.py

如果你想开放远程端口,使用:

conda activate fooocus
python entry_with_update.py --listen

使用python entry_with_update.py --preset animepython entry_with_update.py --preset realistic分别启动Fooocus动漫版/写实版。

Linux(使用Python虚拟环境)

你的Linux需要安装Python 3.10,假设你的Python可以用python3命令调用,并且虚拟环境系统正常工作;你可以:

git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
python3 -m venv fooocus_env
source fooocus_env/bin/activate
pip install -r requirements_versions.txt

关于模型下载,请参见上面的部分。你可以使用以下命令启动软件:

source fooocus_env/bin/activate
python entry_with_update.py

如果你想开放远程端口,使用:

source fooocus_env/bin/activate
python entry_with_update.py --listen

使用python entry_with_update.py --preset animepython entry_with_update.py --preset realistic分别启动Fooocus动漫版/写实版。

Linux(使用系统原生Python)

如果你知道自己在做什么,你的Linux已经安装了Python 3.10,并且可以用python3命令调用Python(用pip3调用Pip),你可以:

git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
pip3 install -r requirements_versions.txt

关于模型下载,请参见上面的部分。你可以使用以下命令启动软件:

python3 entry_with_update.py

如果你想开放远程端口,使用:

python3 entry_with_update.py --listen

使用python entry_with_update.py --preset animepython entry_with_update.py --preset realistic分别启动Fooocus动漫版/写实版。

Linux(AMD GPU)

注意,不同平台的最低要求是不同的。

与上面的说明相同。你需要将torch更改为AMD版本:

pip uninstall torch torchvision torchaudio torchtext functorch xformers 
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.6

然而,AMD未经过深入测试。AMD支持仍处于测试阶段。

使用python entry_with_update.py --preset animepython entry_with_update.py --preset realistic分别启动Fooocus动漫版/写实版。

Windows(AMD GPU)

注意,不同平台的最低要求是不同的。

与Windows相同。下载软件并编辑run.bat的内容如下:

.\python_embeded\python.exe -m pip uninstall torch torchvision torchaudio torchtext functorch xformers -y
.\python_embeded\python.exe -m pip install torch-directml
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml
pause

然后运行run.bat

然而,AMD未经过深入测试。AMD支持仍处于测试阶段。

对于AMD,使用.\python_embeded\python.exe entry_with_update.py --directml --preset anime.\python_embeded\python.exe entry_with_update.py --directml --preset realistic分别启动Fooocus动漫版/写实版。

Mac

注意,不同平台的最低要求是不同的。

Mac未经过深入测试。以下是一个非官方的Mac使用指南。你可以在这里讨论问题。

你可以在运行macOS 'Catalina'或更新版本的Apple Mac silicon(M1或M2)上安装Fooocus。Fooocus通过PyTorch MPS设备加速在Apple silicon计算机上运行。Mac Silicon计算机没有专用显卡,与配备专用显卡的计算机相比,图像处理时间会明显更长。

  1. 安装conda包管理器和pytorch nightly。阅读Apple开发者指南中的Mac上的加速PyTorch训练获取说明。确保pytorch能识别你的MPS设备。
  2. 打开macOS终端应用程序,使用git clone https://github.com/lllyasviel/Fooocus.git克隆此仓库。
  3. 进入新的Fooocus目录,cd Fooocus
  4. 创建新的conda环境,conda env create -f environment.yaml
  5. 激活你的新conda环境,conda activate fooocus
  6. 安装Fooocus所需的包,pip install -r requirements_versions.txt
  7. 运行python entry_with_update.py启动Fooocus。(一些Mac M2用户可能需要使用python entry_with_update.py --disable-offload-from-vram来加速模型加载/卸载。)首次运行Fooocus时,它会自动下载Stable Diffusion SDXL模型,这将花费相当长的时间,具体取决于你的网络连接。

使用python entry_with_update.py --preset animepython entry_with_update.py --preset realistic分别启动Fooocus动漫版/写实版。

Docker

参见docker.md

下载先前版本

参见这里的指南。

最低要求

以下是在本地运行Fooocus的最低要求。如果你的设备配置低于这个规格,你可能无法在本地使用Fooocus。(如果你的设备配置较低但Fooocus仍然可以工作,请告诉我们。)

操作系统GPU最小GPU内存最小系统内存系统交换空间备注
Windows/LinuxNvidia RTX 4XXX4GB8GB必需最快
Windows/LinuxNvidia RTX 3XXX4GB8GB必需通常比RTX 2XXX快
Windows/LinuxNvidia RTX 2XXX4GB8GB必需通常比GTX 1XXX快
Windows/LinuxNvidia GTX 1XXX8GB(* 6GB不确定)8GB必需仅略快于CPU
Windows/LinuxNvidia GTX 9XX8GB8GB必需比CPU快或慢
Windows/LinuxNvidia GTX < 9XX不支持///
WindowsAMD GPU8GB(2023年12月30日更新)8GB必需通过DirectML(* ROCm暂停),约比Nvidia RTX 3XXX慢3倍
LinuxAMD GPU8GB8GB必需通过ROCm,约比Nvidia RTX 3XXX慢1.5倍
MacM1/M2 MPS共享共享共享约比Nvidia RTX 3XXX慢9倍
Windows/Linux/Mac仅使用CPU0GB32GB必需约比Nvidia RTX 3XXX慢17倍

* AMD GPU ROCm(暂停):AMD仍在努力支持Windows上的ROCm。

* Nvidia GTX 1XXX 6GB不确定:一些人报告在GTX 10XX上6GB成功,但其他人报告失败案例。

请注意,Fooocus仅用于生成极高质量的图像。我们不会支持较小的模型来降低要求并牺牲结果质量。

故障排除

请参见这里的常见问题。

默认模型

根据不同的目标,Fooocus的默认模型和配置是不同的:

任务WindowsLinux参数主模型精修器配置
通用run.batjuggernautXL_v8Rundiffusion未使用点此
写实run_realistic.bat--preset realisticrealisticStockPhoto_v20未使用点此
动漫run_anime.bat--preset animeanimaPencilXL_v500未使用点此

注意下载是自动的 - 如果网络连接正常,你不需要做任何事情。但是,如果你有自己的准备,也可以手动下载(或从其他地方移动)。

UI访问和认证

除了在本地主机上运行外,Fooocus还可以通过两种方式公开其UI:

  • 本地UI监听器:使用--listen(可以用--port 8888指定端口)。
  • API访问:使用--share(在.gradio.live注册一个端点)。

这两种方式默认都是无需认证的。你可以通过在主目录下创建一个名为auth.json的文件来添加基本认证,该文件包含具有userpass键的JSON对象列表(参见auth-example.json中的示例)。

"隐藏"技巧列表

以下内容已经包含在软件中,用户无需对这些做任何操作

  1. 基于GPT2的提示词扩展,作为动态风格"Fooocus V2"。(类似于Midjourney的隐藏预处理和"raw"模式,或LeonardoAI的Prompt Magic)
  2. 在单个k-采样器内原生交换精修器。优点是精修器模型现在可以重用基础模型从k-采样中收集的动量(或ODE的历史参数),以实现更连贯的采样。在Automatic1111的高分辨率修复和ComfyUI的节点系统中,基础模型和精修器使用两个独立的k-采样器,这意味着动量大部分被浪费,采样的连续性被打破。Fooocus使用自己的高级k-扩散采样,确保在精修器设置中实现无缝、原生和连续的交换。(更新8月13日:实际上,我几天前与Automatic1111讨论了这个问题,似乎"在单个k-采样器内原生交换精修器"已经合并到webui的dev分支中。太棒了!)
  3. 负ADM引导。由于XL Base的最高分辨率级别没有交叉注意力,XL最高分辨率级别的正面和负面信号在CFG采样过程中无法接收到足够的对比,导致结果在某些情况下看起来有点塑料感或过度平滑。幸运的是,由于XL的最高分辨率级别仍然受图像纵横比(ADM)的影响,我们可以修改正面/负面侧的adm来补偿最高分辨率级别中CFG对比的不足。(更新8月16日,iOS应用Draw Things将支持负ADM引导。太棒了!)
  4. 我们实现了"使用自注意力引导改善扩散模型的样本质量"第5.1节的精心调整变体。权重设置很低,但这是Fooocus的最终保证,确保XL永远不会产生过度平滑或塑料般的外观(示例在此)。这几乎可以消除XL即使有负ADM引导,仍偶尔产生过度平滑结果的所有情况。(更新2023年8月18日,SAG的高斯核被更改为各向异性核,以更好地保持结构并减少伪影。)
  5. 我们稍微修改了风格模板,并添加了"cinematic-default"。
  6. 我们测试了"sd_xl_offset_example-lora_1.0.safetensors",似乎当lora权重低于0.5时,结果总是比没有lora的XL更好。
  7. 采样器的参数经过精心调整。
  8. 由于XL使用位置编码进行生成分辨率,通过几个固定分辨率生成的图像看起来比任意分辨率生成的略好(因为位置编码在处理训练期间未见过的整数时不太好)。这表明UI中的分辨率可能需要硬编码以获得最佳结果。
  9. 为两个不同的文本编码器分离提示词似乎没有必要。为基础模型和精修器分离提示词可能有效,但效果是随机的,我们避免实现这一点。
  10. DPM系列似乎非常适合XL,因为XL有时会生成过度平滑的纹理,而DPM系列有时会在纹理中生成过度密集的细节。它们的联合效果看起来中性且对人类感知有吸引力。
  11. 一个精心设计的系统,用于平衡多种风格以及提示词扩展。
  12. 使用automatic1111的方法来规范化提示词强调。当用户直接从civitai复制提示词时,这显著改善了结果。
  13. 精修器的联合交换系统现在也以无缝方式支持img2img和放大。
  14. 当CFG大于10时,CFG比例和TSNR校正(针对SDXL调整)。

自定义

在你第一次运行Fooocus后,将在Fooocus\config.txt生成一个配置文件。可以编辑此文件来更改模型路径或默认参数。

例如,一个编辑过的Fooocus\config.txt(此文件将在首次启动后生成)可能如下所示:

{
    "path_checkpoints": "D:\\Fooocus\\models\\checkpoints",
    "path_loras": "D:\\Fooocus\\models\\loras",
    "path_embeddings": "D:\\Fooocus\\models\\embeddings",
    "path_vae_approx": "D:\\Fooocus\\models\\vae_approx",
    "path_upscale_models": "D:\\Fooocus\\models\\upscale_models",
    "path_inpaint": "D:\\Fooocus\\models\\inpaint",
    "path_controlnet": "D:\\Fooocus\\models\\controlnet",
    "path_clip_vision": "D:\\Fooocus\\models\\clip_vision",
    "path_fooocus_expansion": "D:\\Fooocus\\models\\prompt_expansion\\fooocus_expansion",
    "path_outputs": "D:\\Fooocus\\outputs",
    "default_model": "realisticStockPhoto_v10.safetensors",
    "default_refiner": "",
    "default_loras": [["lora_filename_1.safetensors", 0.5], ["lora_filename_2.safetensors", 0.5]],
    "default_cfg_scale": 3.0,
    "default_sampler": "dpmpp_2m",
    "default_scheduler": "karras",
    "default_negative_prompt": "low quality",
    "default_positive_prompt": "",
    "default_styles": [
        "Fooocus V2",
        "Fooocus Photograph",
        "Fooocus Negative"
    ]
}

更多其他键、格式和示例在Fooocus\config_modification_tutorial.txt中(此文件将在首次启动后生成)。

在真正更改配置之前要三思。如果发现自己搞砸了,只需删除Fooocus\config.txt。Fooocus将恢复默认设置。

一个更安全的方法是尝试"run_anime.bat"或"run_realistic.bat" - 它们应该已经足够适用于不同的任务。

注意,user_path_config.txt已过时,很快将被移除。(编辑:它已经被移除。)

所有CMD标志

entry_with_update.py  [-h] [--listen [IP]] [--port PORT]
                      [--disable-header-check [ORIGIN]]
                      [--web-upload-size WEB_UPLOAD_SIZE]
                      [--hf-mirror HF_MIRROR]
                      [--external-working-path PATH [PATH ...]]
                      [--output-path OUTPUT_PATH]
                      [--temp-path TEMP_PATH] [--cache-path CACHE_PATH]
                      [--in-browser] [--disable-in-browser]
                      [--gpu-device-id DEVICE_ID]
                      [--async-cuda-allocation | --disable-async-cuda-allocation]
                      [--disable-attention-upcast]
                      [--all-in-fp32 | --all-in-fp16]
                      [--unet-in-bf16 | --unet-in-fp16 | --unet-in-fp8-e4m3fn | --unet-in-fp8-e5m2]
                      [--vae-in-fp16 | --vae-in-fp32 | --vae-in-bf16]
                      [--vae-in-cpu]
                      [--clip-in-fp8-e4m3fn | --clip-in-fp8-e5m2 | --clip-in-fp16 | --clip-in-fp32]
                      [--directml [DIRECTML_DEVICE]]
                      [--disable-ipex-hijack]
                      [--preview-option [none,auto,fast,taesd]]
                      [--attention-split | --attention-quad | --attention-pytorch]
                      [--disable-xformers]
                      [--always-gpu | --always-high-vram | --always-normal-vram | --always-low-vram | --always-no-vram | --always-cpu [CPU_NUM_THREADS]]
                      [--always-offload-from-vram]
                      [--pytorch-deterministic] [--disable-server-log]
                      [--debug-mode] [--is-windows-embedded-python]
                      [--disable-server-info] [--multi-user] [--share]
                      [--preset PRESET] [--disable-preset-selection]
                      [--language LANGUAGE]
                      [--disable-offload-from-vram] [--theme THEME]
                      [--disable-image-log] [--disable-analytics]
                      [--disable-metadata] [--disable-preset-download]
                      [--disable-enhance-output-sorting]
                      [--enable-auto-describe-image]
                      [--always-download-new-model]
                      [--rebuild-hash-cache [CPU_NUM_THREADS]]

内联提示词功能

通配符

示例提示词:__color__ flower

用于正面和负面提示词处理。 从预定义的选项列表中随机选择一个通配符,在这个例子中是wildcards/color.txt文件。 通配符将被替换为一个随机颜色(随机性基于种子)。 你也可以通过在开发者调试模式中启用"按顺序读取通配符"复选框来禁用随机性,并从上到下处理通配符文件。

通配符可以嵌套和组合,同一提示中可以使用多个通配符(示例见wildcards/color_flower.txt)。

数组处理

示例提示:[[red, green, blue]] flower

仅处理正面提示。

从左到右处理数组,为数组中的每个元素生成单独的图像。在这个例子中,会生成3张图像,每种颜色一张。 将图像数量增加到3以生成所有3种变体。

数组不能嵌套,但同一提示中可以使用多个数组。 支持将内联LoRA作为数组元素!

内联LoRA

示例提示:flower <lora:sunflowers:1.2>

仅处理正面提示。

将LoRA应用于提示。LoRA文件必须位于models/loras目录中。

高级功能

点击此处浏览高级功能。

分支

Fooocus还有许多社区分支,就像SD-WebUI的vladmandic/automaticanapnoe/stable-diffusion-webui-ux一样,供热心用户尝试!

另见关于分支和分支推广

致谢

特别感谢twri3DivaMarc K3nt3L创建了Fooocus中可用的额外SDXL风格。感谢daswer123贡献了画布缩放功能!

更新日志

日志在这里

本地化/翻译/国际化

**我们需要你的帮助!**请帮助将Fooocus翻译成各国语言。

你可以在language文件夹中放置json文件来翻译用户界面。

例如,以下是Fooocus/language/example.json的内容:

{
  "Generate": "生成",
  "Input Image": "入力画像",
  "Advanced": "고급",
  "SAI 3D Model": "SAI 3D Modèle"
}

如果你添加--language example参数,Fooocus将读取Fooocus/language/example.json来翻译UI。

例如,你可以将Windows run.bat的最后一行编辑为

.\python_embeded\python.exe -s Fooocus\entry_with_update.py --language example

或者run_anime.bat

.\python_embeded\python.exe -s Fooocus\entry_with_update.py --language example --preset anime

或者run_realistic.bat

.\python_embeded\python.exe -s Fooocus\entry_with_update.py --language example --preset realistic

对于实际翻译,你可以创建自己的文件,如Fooocus/language/jp.jsonFooocus/language/cn.json,然后使用标志--language jp--language cn。显然,这些文件现在还不存在。我们需要你的帮助来创建这些文件!

请注意,如果没有给出--language参数,同时Fooocus/language/default.json存在,Fooocus将始终加载Fooocus/language/default.json进行翻译。默认情况下,Fooocus/language/default.json文件不存在。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号