@@ -18,6 +18,15 @@ title: ComfyUI
1818 - ComfyDeploy
1919 - 另存 (API 格式)
2020 - 调用 /prompt
21+ - 参考
22+ - https://docs.comfy.org/tutorials/
23+
24+ ::: caution
25+
26+ - 只能单一显卡
27+ - https://github.com/comfyanonymous/ComfyUI/discussions/4139
28+
29+ :::
2130
2231``` bash
2332git clone --depth 1 https://github.com/comfyanonymous/ComfyUI ComfyUI
@@ -36,6 +45,9 @@ uv pip install --pre torch torchvision torchaudio --extra-index-url https://down
3645uv pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121
3746# uv pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu128
3847uv pip install -r requirements.txt
48+
49+ # Nvidia APEX normalization not installed, using PyTorch LayerNorm
50+ uv pip install xformers
3951```
4052
4153``` bash title="mps.py"
@@ -77,6 +89,33 @@ No module named pip
7789
7890# # Notes
7991
92+ 好的,遵照您的要求,这里是精简后的版本,仅包含** 目录** 和** 主要用途说明** 两列。
93+
94+ # ## ComfyUI Models 目录结构详解
95+
96+ | dir | for |
97+ | :----------------- | :-------------------------------------------------------------------------------------------------------------------------------------------------------- |
98+ | ` checkpoints` | 核心基础模型,也叫“大模型”。这是文生图的起点,决定了图像生成的基础风格和能力。例如 Stable Diffusion v1.5, SDXL, 以及社区训练的各种整合模型。 |
99+ | ` loras` | LoRA 模型。这些是小型微调文件,用于向基础模型添加特定的角色、画风、概念或服装,灵活性极高。 |
100+ | ` vae` | VAE 模型。用于图像的编码和解码。独立的 VAE 文件可以修正图像的色彩(如改善灰蒙蒙的问题)或修复手部等细节问题。SDXL 模型通常不需要额外 VAE。 |
101+ | ` controlnet` | ControlNet 模型。用于精确控制图像的生成,例如通过姿势骨架、深度图、线稿、二维码等来引导构图和内容。 |
102+ | ` upscale_models` | 图像放大模型。用于“图像放大 (模型)”节点,提升图片分辨率并优化细节。例如 ESRGAN, SwinIR, 4x-UltraSharp 等。 |
103+ | ` embeddings` | 文本反演 (Textual Inversion) 嵌入,也叫 Embedding。这些是极小的文件,通过一个关键词触发特定的概念、角色或画风。常用于负面提示词(如 ` bad-hands-5` )。 |
104+ | ` clip` | CLIP 文本编码器模型。通常 ComfyUI 会自动从大模型中加载,但你也可以把独立的 CLIP 模型放在这里,供高级工作流使用。 |
105+ | ` clip_vision` | CLIP Vision 模型。用于分析图像内容,是 IPAdapter、PhotoMaker 等“图像提示”功能的核心组件。 |
106+ | ` style_models` | 风格模型。主要用于 T2I-Adapter,功能与 ControlNet 类似,但更侧重于风格的迁移。 |
107+ | ` hypernetworks` | Hypernetwork 模型。一种比 LoRA 更早出现的微调技术,现在已不常用,但 ComfyUI 仍然支持加载。 |
108+ | ` unet` | U-Net 模型。U-Net 是 Stable Diffusion 模型的核心降噪网络。普通用户几乎不会用到这个目录,主要用于模型开发和研究,将 U-Net 单独分离出来加载。 |
109+ | ` text_encoders` | 文本编码器模型。与 ` unet` 类似,用于模型研究,允许单独加载和替换文本编码器部分。 |
110+ | ` photomaker` | PhotoMaker 模型。一种专门用于根据输入人脸照片生成统一角色的模型。 |
111+ | ` sams` | SAM (Segment Anything Model) 模型。由 Meta 开发的图像分割模型,在 ComfyUI 中用于精确地创建和分离遮罩 (Mask)。 |
112+ | ` gligen` | GLIGEN 模型。用于“限定区域生成”,允许你通过画框来指定某个物体在图像中的特定位置和大小。 |
113+ | ` diffusers` | 用于存放 Hugging Face 的 Diffusers 格式模型。这种格式是一个包含多个子目录和文件的文件夹,而不是单个文件。ComfyUI 可以直接加载这种格式。 |
114+ | ` configs` | 配置文件。存放一些旧的 ` .ckpt` 模型所需要的 ` .yaml` 配置文件,以帮助 ComfyUI 识别其模型架构(如 v1 或 v2)。现在的 ` .safetensors` 模型通常不需要。 |
115+ | ` vae_approx` | VAE 近似解码器模型。这些是极小的、速度极快的模型,用于在 KSampler 采样过程中生成快速预览图,而不是每次都调用完整的 VAE。 |
116+ | ` onnx` | ONNX 模型。用于存放已转换为 ONNX (Open Neural Network Exchange) 格式的模型,通常用于在非 NVIDIA 硬件(如 AMD 显卡)上通过 DirectML 或 Olive 进行推理。 |
117+ | ` diffusion_models` | 扩散模型组件。一个更通用的目录,类似于 ` unet` ,用于存放扩散模型的某些部分。主要供模型开发者使用。 |
118+
80119** AI Art**
81120
82121- Text2Img
@@ -119,6 +158,22 @@ No module named pip
119158 - SD 1.5
120159 - LAION 5B
121160 - SDXL
161+ - Upscaler
162+ - ESRGAN
163+ - SwinIR
164+ - 4x-UltraSharp
165+ - OmniSR
166+ - MoSR
167+ - DRCT
168+ - ADT
169+ - DAT
170+ - RealPLKSR
171+ - SPAN
172+ - RGT
173+ - HAT
174+ - SRFormer
175+ - SwiftESRGAN
176+ - SPSR
122177- KSampler
123178 - 用于采样生成图像
124179 - sampler
@@ -142,6 +197,22 @@ No module named pip
142197 - 912x1216
143198 - 1008x1344
144199- 9:16
200+ - 512x896
201+ - 576x1024
202+ - 768x1366
203+ - 1024x1820
204+
205+ 输出可以包含日期
206+
207+ ` ` `
208+ %date:yyyy-MM-dd%/ComfyUI
209+ ` ` `
210+
211+ # # API
212+
213+ ` ` ` bash
214+
215+ ` ` `
145216
146217# # 参考 {#reference}
147218
@@ -226,3 +297,13 @@ CUDA kernel errors might be asynchronously reported at some other API call, so t
226297For debugging consider passing CUDA_LAUNCH_BLOCKING=1
227298Compile with ` TORCH_USE_CUDA_DSA` to enable device-side assertions.
228299` ` `
300+
301+ # # ImportError: cannot import name 'guidedFilter' from 'cv2.ximgproc'
302+
303+ ` ` ` bash
304+ uv pip uninstall opencv-python opencv-python-headless opencv-contrib-python-headless opencv-contrib-python
305+ uv pip install opencv-python opencv-python-headless opencv-contrib-python-headless
306+ uv pip install opencv-contrib-python
307+ ` ` `
308+
309+ - https://github.com/chflame163/ComfyUI_LayerStyle/issues/5
0 commit comments