AI-Dock + ComfyUI Docker镜像
在高度可配置、云优先的AI-Dock容器中运行ComfyUI。
[!注意] 这些镜像不捆绑模型或第三方配置。您应该使用配置脚本来自动配置您的容器。您可以在
config/provisioning
中找到示例,包括SD3
和FLUX.1
的设置。
文档
所有AI-Dock容器共享一个通用基础,旨在使在vast.ai等云服务上运行变得尽可能简单和用户友好。
常见功能和选项在基础wiki中有记录,但此镜像独有的任何其他功能将在下面详细说明。
版本标签
:latest
标签指向:latest-cuda
,并与稳定和经过测试的版本相关。可能会有更新的构建。
标签遵循以下模式:
CUDA
:cuda-[x.x.x-base|runtime]-[ubuntu-version]
ROCm
:rocm-[x.x.x-runtime]-[ubuntu-version]
CPU
:cpu-[ubuntu-version]
浏览ghcr.io以找到适合您目标环境的镜像。或者,在DockerHub查看CUDA和ROCm构建的精选范围。
支持的平台:NVIDIA CUDA
、AMD ROCm
、CPU
额外的环境变量
变量 | 描述 |
---|---|
AUTO_UPDATE | 在启动时更新ComfyUI(默认为false ) |
CIVITAI_TOKEN | 验证来自Civitai的下载请求 - 受限模型需要 |
COMFYUI_ARGS | 启动参数。例如:--gpu-only --highvram |
COMFYUI_PORT_HOST | ComfyUI界面端口(默认为8188 ) |
COMFYUI_REF | 自动更新的Git引用。接受分支、标签或提交哈希。默认:最新发布版本 |
COMFYUI_URL | 使用URL覆盖ComfyUI的$DIRECT_ADDRESS:port |
HF_TOKEN | 验证来自HuggingFace的下载请求 - 受限模型需要(SD3、FLUX等) |
查看这里的基础环境变量,了解更多配置选项。
额外的Python环境
环境 | 包 |
---|---|
comfyui | ComfyUI及其依赖项 |
api | ComfyUI API包装器及其依赖项 |
登录shell时将激活comfyui
环境。
查看这里的基础micromamba环境。
额外的服务
除了基础镜像提供的默认服务外,还将启动以下服务。
ComfyUI
该服务将在端口8188
上启动,除非您使用COMFYUI_PORT_HOST
指定了覆盖。
您可以使用变量COMFYUI_ARGS
设置启动标志。
要管理此服务,您可以使用supervisorctl [start|stop|restart] comfyui
。
ComfyUI API包装器
此服务在端口8188
上可用,是一个正在进行中的工作,用于替代已弃用的先前无服务器处理程序;如果您需要,旧的Docker镜像和源代码仍然可用。
您可以直接在/ai-dock/api/
访问api,或者可以在/ai-dock/api/docs
使用Swagger/openAPI playground。
预配置模板
Vast.ai
如果您注册了本文档中链接的服务,作者(@robballantyne)可能会获得补偿。在许多不同环境中测试多个GPU镜像变体既昂贵又耗时;这有助于抵消成本