非精选随机批次,仅通过输入两个词"森林精灵"生成,
无需任何参数调整,无需任何奇怪的提示标签。
在整个开源社区中,只有Fooocus能达到这种级别的非精选质量。
Fooocus
Fooocus是一款图像生成软件(基于Gradio)。
Fooocus是对Stable Diffusion和Midjourney设计的重新思考:
-
从Stable Diffusion学习,该软件是离线、开源和免费的。
-
从Midjourney学习,不需要手动调整,用户只需专注于提示词和图像。
Fooocus已包含并自动化了大量内部优化和质量改进。用户可以忘记所有那些困难的技术参数,只需享受人机交互,以"探索新的思维媒介并扩展人类物种的想象力"[1]。
Fooocus简化了安装过程。从按下"下载"到生成第一张图像,所需的鼠标点击次数严格限制在3次以内。最低GPU内存要求为4GB(Nvidia)。
[1] David Holz, 2019年。
最近在Google搜索"fooocus"时出现了许多假网站。请不要相信这些网站 - 这里是Fooocus唯一的官方来源。
安装Fooocus
从Midjourney迁移到Fooocus
使用Fooocus就像(可能比)Midjourney一样简单 - 但这并不意味着我们缺乏功能。以下是详细信息。
Midjourney | Fooocus |
---|---|
高质量文本到图像转换,无需太多提示工程或参数调整。 (未知方法) | 高质量文本到图像转换,无需太多提示工程或参数调整。 (Fooocus有一个离线的基于GPT-2的提示处理引擎和大量采样改进,因此结果总是很漂亮,无论你的提示词是像"花园里的房子"这样简短还是长达1000字) |
V1 V2 V3 V4 | 输入图像 -> 放大或变化 -> 轻微变化 / 强烈变化 |
U1 U2 U3 U4 | 输入图像 -> 放大或变化 -> 放大(1.5倍)/ 放大(2倍) |
局部重绘 / 上 / 下 / 左 / 右(平移) | 输入图像 -> 局部重绘或外部绘制 -> 局部重绘 / 上 / 下 / 左 / 右 (Fooocus使用自己的局部重绘算法和模型,因此结果比所有使用标准SDXL局部重绘方法/模型的其他软件更令人满意) |
图像提示 | 输入图像 -> 图像提示 (Fooocus使用自己的图像提示算法,因此结果质量和提示理解比所有使用标准SDXL方法的其他软件(如标准IP-Adapters或Revisions)更令人满意) |
--style | 高级 -> 风格 |
--stylize | 高级 -> 高级 -> 引导 |
--niji | 多个启动器:"run.bat"、"run_anime.bat"和"run_realistic.bat"。 Fooocus支持Civitai上的SDXL模型 (如果你不知道Civitai,可以谷歌搜索"Civitai") |
--quality | 高级 -> 质量 |
--repeat | 高级 -> 图像数量 |
多重提示(::) | 只需使用多行提示 |
提示权重 | 你可以使用"I am (happy:1.5)"。 Fooocus使用A1111的重新加权算法,因此如果用户直接从Civitai复制提示,结果会比ComfyUI更好。(因为如果提示是用ComfyUI的重新加权写的,用户不太可能复制提示文本,因为他们更喜欢拖动文件) 要使用embedding,你可以使用"(embedding:file_name:1.1)" |
--no | 高级 -> 负面提示 |
--ar | 高级 -> 宽高比 |
InsightFace | 输入图像 -> 图像提示 -> 高级 -> 换脸 |
描述 | 输入图像 -> 描述 |
我们还借鉴了LeonardoAI的一些最佳部分:
LeonardoAI | Fooocus |
---|---|
提示魔法 | 高级 -> 风格 -> Fooocus V2 |
高级采样器参数(如对比度/锐度等) | 高级 -> 高级 -> 采样锐度 / 等 |
用户友好的ControlNets | 输入图像 -> 图像提示 -> 高级 |
Fooocus还为高级用户开发了许多"仅限fooocus"的功能,以获得完美的结果。点击这里浏览高级功能。
下载
Windows
你可以直接下载Fooocus:
下载文件后,请解压缩并运行"run.bat"。
首次启动软件时,它会自动下载模型:
- 根据不同的预设,它会将默认模型下载到"Fooocus\models\checkpoints"文件夹。如果你不想自动下载,可以提前下载这些模型。
- 请注意,如果你使用局部重绘功能,在第一次重绘图像时,它会从这里下载Fooocus自己的局部重绘控制模型,作为文件"Fooocus\models\inpaint\inpaint_v26.fooocus.patch"(该文件大小为1.28GB)。
从Fooocus 2.1.60版本开始,你还将拥有run_anime.bat
和run_realistic.bat
。它们是不同的模型预设(需要不同的模型,但会自动下载)。点击这里查看更多详情。
从Fooocus 2.3.0版本开始,你还可以直接在浏览器中切换预设。请记住,如果你想更改默认行为,可以添加这些参数:
- 使用
--disable-preset-selection
在浏览器中禁用预设选择。 - 使用
--always-download-new-model
在切换预设时下载缺失的模型。默认情况下会回退到相应预设中定义的previous_default_models
,也可以查看终端输出。
如果你已经有这些文件,可以将它们复制到上述位置以加快安装速度。
请注意,如果你看到**"MetadataIncompleteBuffer"或"PytorchStreamReader"**,那么你的模型文件已损坏。请重新下载模型。
以下是在一台配置相对较低的笔记本电脑上进行的测试,该笔记本电脑具有16GB系统内存和6GB显存(Nvidia 3060笔记本版)。在这台机器上的速度约为每次迭代1.35秒。非常令人印象深刻 - 现在配备3060的笔记本电脑通常价格非常合理。
此外,最近许多其他软件报告称,高于532版本的Nvidia驱动程序有时比531版本的Nvidia驱动程序慢10倍。如果你的生成时间很长,可以考虑下载Nvidia驱动程序531笔记本版或Nvidia驱动程序531桌面版。
请注意,最低要求是4GB Nvidia GPU内存(4GB VRAM)和8GB系统内存(8GB RAM)。这需要使用Microsoft的虚拟交换技术,在大多数情况下,你的Windows安装会自动启用它,所以你通常不需要做任何事情。但是,如果你不确定,或者如果你手动关闭了它(真的有人会这么做吗?),或者如果你看到任何"RuntimeError: CPUAllocator",你可以在这里启用它:
点击此处查看图片说明。
如果你仍然看到"RuntimeError: CPUAllocator",请确保每个驱动器至少有40GB的可用空间!
如果你使用类似的设备但仍然无法达到可接受的性能,请提出问题。
请注意,不同平台的最低要求是不同的。
另请参阅此处的常见问题和故障排除。
Colab
(最后测试时间 - 2024年8月12日,由mashb1t进行)
你也可以在用户界面中更改预设。请注意,这可能导致60秒后超时。如果发生这种情况,请等待下载完成,将预设更改为初始状态然后再改回你选择的预设,或者重新加载页面。
注意,由于Colab免费版资源相对有限(某些"大型"功能如图像提示可能导致免费版Colab断开连接),此Colab默认会禁用细化器。我们确保基本的文本到图像功能在免费版Colab上始终可用。
使用--always-high-vram
会将资源分配从RAM转移到VRAM,在默认T4实例上实现性能、灵活性和稳定性的最佳平衡。更多信息请参见这里。
感谢camenduru提供的模板!
Linux(使用Anaconda)
如果你想使用Anaconda/Miniconda,可以执行以下操作:
git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
conda env create -f environment.yaml
conda activate fooocus
pip install -r requirements_versions.txt
然后下载模型:将默认模型下载到"Fooocus\models\checkpoints"文件夹。或者让Fooocus使用启动器自动下载模型:
conda activate fooocus
python entry_with_update.py
如果你想开放远程端口,使用:
conda activate fooocus
python entry_with_update.py --listen
使用python entry_with_update.py --preset anime
或python entry_with_update.py --preset realistic
分别启动Fooocus动漫版/写实版。
Linux(使用Python虚拟环境)
你的Linux需要安装Python 3.10,假设你的Python可以用python3命令调用,并且虚拟环境系统正常工作;你可以:
git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
python3 -m venv fooocus_env
source fooocus_env/bin/activate
pip install -r requirements_versions.txt
关于模型下载,请参见上面的部分。你可以使用以下命令启动软件:
source fooocus_env/bin/activate
python entry_with_update.py
如果你想开放远程端口,使用:
source fooocus_env/bin/activate
python entry_with_update.py --listen
使用python entry_with_update.py --preset anime
或python entry_with_update.py --preset realistic
分别启动Fooocus动漫版/写实版。
Linux(使用系统原生Python)
如果你知道自己在做什么,你的Linux已经安装了Python 3.10,并且可以用python3命令调用Python(用pip3调用Pip),你可以:
git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
pip3 install -r requirements_versions.txt
关于模型下载,请参见上面的部分。你可以使用以下命令启动软件:
python3 entry_with_update.py
如果你想开放远程端口,使用:
python3 entry_with_update.py --listen
使用python entry_with_update.py --preset anime
或python entry_with_update.py --preset realistic
分别启动Fooocus动漫版/写实版。
Linux(AMD GPU)
注意,不同平台的最低要求是不同的。
与上面的说明相同。你需要将torch更改为AMD版本:
pip uninstall torch torchvision torchaudio torchtext functorch xformers
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.6
然而,AMD未经过深入测试。AMD支持仍处于测试阶段。
使用python entry_with_update.py --preset anime
或python entry_with_update.py --preset realistic
分别启动Fooocus动漫版/写实版。
Windows(AMD GPU)
注意,不同平台的最低要求是不同的。
与Windows相同。下载软件并编辑run.bat
的内容如下:
.\python_embeded\python.exe -m pip uninstall torch torchvision torchaudio torchtext functorch xformers -y
.\python_embeded\python.exe -m pip install torch-directml
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml
pause
然后运行run.bat
。
然而,AMD未经过深入测试。AMD支持仍处于测试阶段。
对于AMD,使用.\python_embeded\python.exe entry_with_update.py --directml --preset anime
或.\python_embeded\python.exe entry_with_update.py --directml --preset realistic
分别启动Fooocus动漫版/写实版。
Mac
注意,不同平台的最低要求是不同的。
Mac未经过深入测试。以下是一个非官方的Mac使用指南。你可以在这里讨论问题。
你可以在运行macOS 'Catalina'或更新版本的Apple Mac silicon(M1或M2)上安装Fooocus。Fooocus通过PyTorch MPS设备加速在Apple silicon计算机上运行。Mac Silicon计算机没有专用显卡,与配备专用显卡的计算机相比,图像处理时间会明显更长。
- 安装conda包管理器和pytorch nightly。阅读Apple开发者指南中的Mac上的加速PyTorch训练获取说明。确保pytorch能识别你的MPS设备。
- 打开macOS终端应用程序,使用
git clone https://github.com/lllyasviel/Fooocus.git
克隆此仓库。 - 进入新的Fooocus目录,
cd Fooocus
。 - 创建新的conda环境,
conda env create -f environment.yaml
。 - 激活你的新conda环境,
conda activate fooocus
。 - 安装Fooocus所需的包,
pip install -r requirements_versions.txt
。 - 运行
python entry_with_update.py
启动Fooocus。(一些Mac M2用户可能需要使用python entry_with_update.py --disable-offload-from-vram
来加速模型加载/卸载。)首次运行Fooocus时,它会自动下载Stable Diffusion SDXL模型,这将花费相当长的时间,具体取决于你的网络连接。
使用python entry_with_update.py --preset anime
或python entry_with_update.py --preset realistic
分别启动Fooocus动漫版/写实版。
Docker
下载先前版本
参见这里的指南。
最低要求
以下是在本地运行Fooocus的最低要求。如果你的设备配置低于这个规格,你可能无法在本地使用Fooocus。(如果你的设备配置较低但Fooocus仍然可以工作,请告诉我们。)
操作系统 | GPU | 最小GPU内存 | 最小系统内存 | 系统交换空间 | 备注 |
---|---|---|---|---|---|
Windows/Linux | Nvidia RTX 4XXX | 4GB | 8GB | 必需 | 最快 |
Windows/Linux | Nvidia RTX 3XXX | 4GB | 8GB | 必需 | 通常比RTX 2XXX快 |
Windows/Linux | Nvidia RTX 2XXX | 4GB | 8GB | 必需 | 通常比GTX 1XXX快 |
Windows/Linux | Nvidia GTX 1XXX | 8GB(* 6GB不确定) | 8GB | 必需 | 仅略快于CPU |
Windows/Linux | Nvidia GTX 9XX | 8GB | 8GB | 必需 | 比CPU快或慢 |
Windows/Linux | Nvidia GTX < 9XX | 不支持 | / | / | / |
Windows | AMD GPU | 8GB(2023年12月30日更新) | 8GB | 必需 | 通过DirectML(* ROCm暂停),约比Nvidia RTX 3XXX慢3倍 |
Linux | AMD GPU | 8GB | 8GB | 必需 | 通过ROCm,约比Nvidia RTX 3XXX慢1.5倍 |
Mac | M1/M2 MPS | 共享 | 共享 | 共享 | 约比Nvidia RTX 3XXX慢9倍 |
Windows/Linux/Mac | 仅使用CPU | 0GB | 32GB | 必需 | 约比Nvidia RTX 3XXX慢17倍 |
* AMD GPU ROCm(暂停):AMD仍在努力支持Windows上的ROCm。
* Nvidia GTX 1XXX 6GB不确定:一些人报告在GTX 10XX上6GB成功,但其他人报告失败案例。
请注意,Fooocus仅用于生成极高质量的图像。我们不会支持较小的模型来降低要求并牺牲结果质量。
故障排除
请参见这里的常见问题。
默认模型
根据不同的目标,Fooocus的默认模型和配置是不同的:
任务 | Windows | Linux参数 | 主模型 | 精修器 | 配置 |
---|---|---|---|---|---|
通用 | run.bat | juggernautXL_v8Rundiffusion | 未使用 | 点此 | |
写实 | run_realistic.bat | --preset realistic | realisticStockPhoto_v20 | 未使用 | 点此 |
动漫 | run_anime.bat | --preset anime | animaPencilXL_v500 | 未使用 | 点此 |
注意下载是自动的 - 如果网络连接正常,你不需要做任何事情。但是,如果你有自己的准备,也可以手动下载(或从其他地方移动)。
UI访问和认证
除了在本地主机上运行外,Fooocus还可以通过两种方式公开其UI:
- 本地UI监听器:使用
--listen
(可以用--port 8888
指定端口)。 - API访问:使用
--share
(在.gradio.live
注册一个端点)。
这两种方式默认都是无需认证的。你可以通过在主目录下创建一个名为auth.json
的文件来添加基本认证,该文件包含具有user
和pass
键的JSON对象列表(参见auth-example.json中的示例)。
"隐藏"技巧列表
以下内容已经包含在软件中,用户无需对这些做任何操作。
- 基于GPT2的提示词扩展,作为动态风格"Fooocus V2"。(类似于Midjourney的隐藏预处理和"raw"模式,或LeonardoAI的Prompt Magic)
- 在单个k-采样器内原生交换精修器。优点是精修器模型现在可以重用基础模型从k-采样中收集的动量(或ODE的历史参数),以实现更连贯的采样。在Automatic1111的高分辨率修复和ComfyUI的节点系统中,基础模型和精修器使用两个独立的k-采样器,这意味着动量大部分被浪费,采样的连续性被打破。Fooocus使用自己的高级k-扩散采样,确保在精修器设置中实现无缝、原生和连续的交换。(更新8月13日:实际上,我几天前与Automatic1111讨论了这个问题,似乎"在单个k-采样器内原生交换精修器"已经合并到webui的dev分支中。太棒了!)
- 负ADM引导。由于XL Base的最高分辨率级别没有交叉注意力,XL最高分辨率级别的正面和负面信号在CFG采样过程中无法接收到足够的对比,导致结果在某些情况下看起来有点塑料感或过度平滑。幸运的是,由于XL的最高分辨率级别仍然受图像纵横比(ADM)的影响,我们可以修改正面/负面侧的adm来补偿最高分辨率级别中CFG对比的不足。(更新8月16日,iOS应用Draw Things将支持负ADM引导。太棒了!)
- 我们实现了"使用自注意力引导改善扩散模型的样本质量"第5.1节的精心调整变体。权重设置很低,但这是Fooocus的最终保证,确保XL永远不会产生过度平滑或塑料般的外观(示例在此)。这几乎可以消除XL即使有负ADM引导,仍偶尔产生过度平滑结果的所有情况。(更新2023年8月18日,SAG的高斯核被更改为各向异性核,以更好地保持结构并减少伪影。)
- 我们稍微修改了风格模板,并添加了"cinematic-default"。
- 我们测试了"sd_xl_offset_example-lora_1.0.safetensors",似乎当lora权重低于0.5时,结果总是比没有lora的XL更好。
- 采样器的参数经过精心调整。
- 由于XL使用位置编码进行生成分辨率,通过几个固定分辨率生成的图像看起来比任意分辨率生成的略好(因为位置编码在处理训练期间未见过的整数时不太好)。这表明UI中的分辨率可能需要硬编码以获得最佳结果。
- 为两个不同的文本编码器分离提示词似乎没有必要。为基础模型和精修器分离提示词可能有效,但效果是随机的,我们避免实现这一点。
- DPM系列似乎非常适合XL,因为XL有时会生成过度平滑的纹理,而DPM系列有时会在纹理中生成过度密集的细节。它们的联合效果看起来中性且对人类感知有吸引力。
- 一个精心设计的系统,用于平衡多种风格以及提示词扩展。
- 使用automatic1111的方法来规范化提示词强调。当用户直接从civitai复制提示词时,这显著改善了结果。
- 精修器的联合交换系统现在也以无缝方式支持img2img和放大。
- 当CFG大于10时,CFG比例和TSNR校正(针对SDXL调整)。
自定义
在你第一次运行Fooocus后,将在Fooocus\config.txt
生成一个配置文件。可以编辑此文件来更改模型路径或默认参数。
例如,一个编辑过的Fooocus\config.txt
(此文件将在首次启动后生成)可能如下所示:
{
"path_checkpoints": "D:\\Fooocus\\models\\checkpoints",
"path_loras": "D:\\Fooocus\\models\\loras",
"path_embeddings": "D:\\Fooocus\\models\\embeddings",
"path_vae_approx": "D:\\Fooocus\\models\\vae_approx",
"path_upscale_models": "D:\\Fooocus\\models\\upscale_models",
"path_inpaint": "D:\\Fooocus\\models\\inpaint",
"path_controlnet": "D:\\Fooocus\\models\\controlnet",
"path_clip_vision": "D:\\Fooocus\\models\\clip_vision",
"path_fooocus_expansion": "D:\\Fooocus\\models\\prompt_expansion\\fooocus_expansion",
"path_outputs": "D:\\Fooocus\\outputs",
"default_model": "realisticStockPhoto_v10.safetensors",
"default_refiner": "",
"default_loras": [["lora_filename_1.safetensors", 0.5], ["lora_filename_2.safetensors", 0.5]],
"default_cfg_scale": 3.0,
"default_sampler": "dpmpp_2m",
"default_scheduler": "karras",
"default_negative_prompt": "low quality",
"default_positive_prompt": "",
"default_styles": [
"Fooocus V2",
"Fooocus Photograph",
"Fooocus Negative"
]
}
更多其他键、格式和示例在Fooocus\config_modification_tutorial.txt
中(此文件将在首次启动后生成)。
在真正更改配置之前要三思。如果发现自己搞砸了,只需删除Fooocus\config.txt
。Fooocus将恢复默认设置。
一个更安全的方法是尝试"run_anime.bat"或"run_realistic.bat" - 它们应该已经足够适用于不同的任务。
注意,(编辑:它已经被移除。)user_path_config.txt
已过时,很快将被移除。
所有CMD标志
entry_with_update.py [-h] [--listen [IP]] [--port PORT]
[--disable-header-check [ORIGIN]]
[--web-upload-size WEB_UPLOAD_SIZE]
[--hf-mirror HF_MIRROR]
[--external-working-path PATH [PATH ...]]
[--output-path OUTPUT_PATH]
[--temp-path TEMP_PATH] [--cache-path CACHE_PATH]
[--in-browser] [--disable-in-browser]
[--gpu-device-id DEVICE_ID]
[--async-cuda-allocation | --disable-async-cuda-allocation]
[--disable-attention-upcast]
[--all-in-fp32 | --all-in-fp16]
[--unet-in-bf16 | --unet-in-fp16 | --unet-in-fp8-e4m3fn | --unet-in-fp8-e5m2]
[--vae-in-fp16 | --vae-in-fp32 | --vae-in-bf16]
[--vae-in-cpu]
[--clip-in-fp8-e4m3fn | --clip-in-fp8-e5m2 | --clip-in-fp16 | --clip-in-fp32]
[--directml [DIRECTML_DEVICE]]
[--disable-ipex-hijack]
[--preview-option [none,auto,fast,taesd]]
[--attention-split | --attention-quad | --attention-pytorch]
[--disable-xformers]
[--always-gpu | --always-high-vram | --always-normal-vram | --always-low-vram | --always-no-vram | --always-cpu [CPU_NUM_THREADS]]
[--always-offload-from-vram]
[--pytorch-deterministic] [--disable-server-log]
[--debug-mode] [--is-windows-embedded-python]
[--disable-server-info] [--multi-user] [--share]
[--preset PRESET] [--disable-preset-selection]
[--language LANGUAGE]
[--disable-offload-from-vram] [--theme THEME]
[--disable-image-log] [--disable-analytics]
[--disable-metadata] [--disable-preset-download]
[--disable-enhance-output-sorting]
[--enable-auto-describe-image]
[--always-download-new-model]
[--rebuild-hash-cache [CPU_NUM_THREADS]]
内联提示词功能
通配符
示例提示词:__color__ flower
用于正面和负面提示词处理。
从预定义的选项列表中随机选择一个通配符,在这个例子中是wildcards/color.txt
文件。
通配符将被替换为一个随机颜色(随机性基于种子)。
你也可以通过在开发者调试模式中启用"按顺序读取通配符"复选框来禁用随机性,并从上到下处理通配符文件。
通配符可以嵌套和组合,同一提示中可以使用多个通配符(示例见wildcards/color_flower.txt
)。
数组处理
示例提示:[[red, green, blue]] flower
仅处理正面提示。
从左到右处理数组,为数组中的每个元素生成单独的图像。在这个例子中,会生成3张图像,每种颜色一张。 将图像数量增加到3以生成所有3种变体。
数组不能嵌套,但同一提示中可以使用多个数组。 支持将内联LoRA作为数组元素!
内联LoRA
示例提示:flower <lora:sunflowers:1.2>
仅处理正面提示。
将LoRA应用于提示。LoRA文件必须位于models/loras
目录中。
高级功能
分支
Fooocus还有许多社区分支,就像SD-WebUI的vladmandic/automatic和anapnoe/stable-diffusion-webui-ux一样,供热心用户尝试!
Fooocus的分支 |
---|
fenneishi/Fooocus-Control runew0lf/RuinedFooocus MoonRide303/Fooocus-MRE metercai/SimpleSDXL mashb1t/Fooocus 等等... |
另见关于分支和分支推广。
致谢
特别感谢twri、3Diva和Marc K3nt3L创建了Fooocus中可用的额外SDXL风格。感谢daswer123贡献了画布缩放功能!
更新日志
日志在这里。
本地化/翻译/国际化
**我们需要你的帮助!**请帮助将Fooocus翻译成各国语言。
你可以在language
文件夹中放置json文件来翻译用户界面。
例如,以下是Fooocus/language/example.json
的内容:
{
"Generate": "生成",
"Input Image": "入力画像",
"Advanced": "고급",
"SAI 3D Model": "SAI 3D Modèle"
}
如果你添加--language example
参数,Fooocus将读取Fooocus/language/example.json
来翻译UI。
例如,你可以将Windows run.bat
的最后一行编辑为
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --language example
或者run_anime.bat
为
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --language example --preset anime
或者run_realistic.bat
为
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --language example --preset realistic
对于实际翻译,你可以创建自己的文件,如Fooocus/language/jp.json
或Fooocus/language/cn.json
,然后使用标志--language jp
或--language cn
。显然,这些文件现在还不存在。我们需要你的帮助来创建这些文件!
请注意,如果没有给出--language
参数,同时Fooocus/language/default.json
存在,Fooocus将始终加载Fooocus/language/default.json
进行翻译。默认情况下,Fooocus/language/default.json
文件不存在。