Comfyui_llm_party希望基于comfyui这一个极为简约的UI界面作为前端,开发一套完整的用于LLM工作流搭建的节点库。可以让用户更便捷快速地搭建自己的LLM工作流,并且更方便地接入自己的图像工作流中。
CN.mp4
ComfyUI LLM Party,从最基础的 LLM 多工具调用、角色设定快速搭建自己的专属AI助手、到可以行业落地的词向量RAG、GraphRAG来本地化的管理行业内知识库;从单一的智能体流水线,到复杂的智能体与智能体辐射状交互模式、环形交互模式的构建;从个人用户需要的接入自己的社交APP(QQ、飞书、Discord),到流媒体工作者需要的一站式LLM+TTS+ComfyUI工作流;从普通学生所需要的第一个LLM应用的简单上手起步,到科研工作者们常用的各类参数调试接口,模型适配。这一切,你都可以在ComfyUI LLM Party中找到答案。
- 如果你从来没有使用过comfyui,且在comfyui中安装LLM party时出现了一些依赖问题。点击这里,下载包含LLM party的comfyui windows便携包。注意!这个便携包里只有party和管理器这两个插件,且只适用于windows系统。(如果你需要将LLM party安装到已有的comfyui,该步骤可以跳过。)
- 直接将以下工作流拖入你的comfyui,然后用comfyui-Manager安装缺失节点。
- 使用API调用LLM:start_with_LLM_api
- 使用aisuite调用LLM:start_with_aisuite
- 使用ollama管理本地LLM:start_with_Ollama
- 使用分散格式的本地LLM:start_with_LLM_local
- 使用GGUF格式的本地LLM:start_with_LLM_GGUF
- 使用分散格式的本地VLM:start_with_VLM_local(测试中,目前只支持Llama-3.2-Vision-Instruct)
- 使用GGUF格式的本地VLM:start_with_VLM_GGUF
- 如果你是使用API,在API LLM加载器节点上填入你的
base_url
(可以是中转API,注意结尾要用/v1/
),例如:https://api.openai.com/v1/
以及api_key
。 - 如果你是使用ollama,在API LLM加载器节点上打开
is_ollama
选项,无需填写base_url
和api_key
。 - 如果你是使用本地模型,在本地模型加载器节点上填入你的模型路径,例如:
E:\model\Llama-3.2-1B-Instruct
。也可以在本地模型加载器节点上填入hunggingface的模型repo id,例如:lllyasviel/omost-llama-3-8b-4bits
。 - 由于本项目有较高的使用门槛,所以即使你选择了快速开始,我也希望你能耐心阅读完本项目主页。
- 添加了一个全新的图床节点,目前支持了 https://sm.ms 图床(中国地区域名为 https://smms.app)以及 https://imgbb.com 图床,未来会支持更多的图床,示例工作流:图床
party默认兼容的imgbb图床已更新到imgbb这一域名上,之前的图床由于对于中国大陆用户不友好,所以已经更换。非常不好意思,https://imgbb.io 的图床API服务似乎已经停止了,所以代码回滚到了原先的 https://imgbb.com ,感谢大家的理解。未来我会更新一个支持更多图床的节点。- 更新了MCP工具,你可以修改party项目文件夹下的'mcp_config.json'中的配置来调整你要连接上的MCP服务器。你可以在这里找到你想要添加的各种MCP服务器配置参数:modelcontextprotocol/servers。本项目中默认配置为Everything服务器,一个用于测试MCP服务器是否可以正常使用的服务器。参考工作流:start_with_MCP。开发者注:MCP工具节点可以连接上你配置好的MCP服务器,然后将服务器中的tools转换成LLM可以直接使用的工具。通过配置不同的本地服务器或者云服务器,你可以体验到这个世界上所有LLM工具。
- 支持所有openai格式的API调用(结合oneapi可以调用几乎所有LLM API,也支持所有的中转API),base_url的选择参考config.ini.example,目前已测试的有:
- openai(完美适配所有的openai模型,包括4o和o1系列!)
- ollama(推荐!如果你是本地调用,非常推荐使用ollama方式托管你的本地模型!)
- Azure OpenAI
- llama.cpp(推荐!如果你想使用本地gguf格式的模型,可以使用llama.cpp项目的API接入本项目!)
- Grok
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- 豆包
- 讯飞星火/spark
- Gemini(原本的Gemini API LLM 加载器节点在新版本的已被弃用,请使用LLM API加载器节点,base_url选择为:https://generativelanguage.googleapis.com/v1beta/)
- 支持aisuite兼容的所有API调用:
- 兼容transformer库的大部分本地模型(本地LLM模型链节点上的model type已改成LLM、VLM-GGUF、LLM-GGUF三个选项,对应了直接加载LLM模型、加载VLM模型和加载GGUF格式的LLM模型),如果你的VLM或GGUF格式的LLM模型报错了,请在llama-cpp-python下载最新版本的llama-cpp-python,目前已测试的有:
- ClosedCharacter/Peach-9B-8k-Roleplay(推荐!角色扮演模型)
- lllyasviel/omost-llama-3-8b-4bits(推荐!丰富提示词模型)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- 模型下载:
使用以下方法之一安装
- 在comfyui管理器中搜索
comfyui_LLM_party
,一键安装 - 重启comfyui
- 导航到 ComfyUI 根文件夹中下的
custom_nodes
子文件夹 - 使用克隆此存储库。
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- 点击右上角的
CODE
- 点击
download zip
- 将下载的压缩包解压到ComfyUI 根文件夹中下的
custom_nodes
子文件夹中
- 导航到
comfyui_LLM_party
的项目文件夹 - 在终端输入
pip install -r requirements.txt
将本项目需要的第三方库部署到comfyui的环境中。请注意你是否在comfyui的环境进行安装,并关注终端中的pip
报错 - 如果你是用的comfyui启动器,你需要在终端中输入
启动器配置中的路径\python_embeded\python.exe -m pip install -r requirements.txt
进行安装。python_embeded
文件夹一般与你的ComfyUI
文件夹同级。 - 如果你出现了一些环境配置问题,可以尝试使用
requirements_fixed.txt
中的依赖。
- 可以在
config.ini
中配置语言,目前只有中文(zh_CN)和英文(en_US)两种,默认为你的系统语言。 - 可以使用以下方法之一配置APIKEY
- 打开
comfyui_LLM_party
的项目文件夹下的config.ini
文件。 - 在
config.ini
输入你的openai_api_key
、base_url
。 - 如果你使用ollama模型,在
base_url
填入http://127.0.0.1:11434/v1/
,在openai_api_key
填入ollama
,在model_name
填入你的模型名称,例如:llama3。 - 如果你要使用谷歌搜索或者必应搜索工具,在
config.ini
输入你的google_api_key
、cse_id
或bing_api_key
。 - 如果你要使用图片输入LLM,推荐使用图床imgbb,在
config.ini
输入你的imgbb_api
。 - 每个模型都可以在
config.ini
文件中单独配置,可以参考config.ini.example
文件填写。当你配置好之后,只需要在节点上输入model_name
即可。
- 打开comfyui界面。
- 新建大语言模型(LLM)节点,在节点中直接输入你的
openai_api_key
、base_url
。 - 如果你使用ollama模型,请使用LLM_api节点,在节点的
base_url
填入http://127.0.0.1:11434/v1/
,在api_key
填入ollama
,在model_name
填入你的模型名称,例如:llama3。。 - 如果你要使用图片输入LLM,推荐使用图床imgbb,在节点上输入你的
imgbb_api_key
。
- 更多的模型适配;
- 更多的智能体的搭建方式。
- 更多的自动化功能。
- 更多的知识库管理功能。
- 更多的工具、更多的人格面具。
本开源项目及其内容(以下简称“项目”)仅供参考之用,并不意味着任何明示或暗示的保证。项目贡献者不对项目的完整性、准确性、可靠性或适用性承担任何责任。任何依赖项目内容的行为均需自行承担风险。在任何情况下,项目贡献者均不对因使用项目内容而产生的任何间接、特殊或附带的损失或损害承担责任。
本项目中的一些节点借鉴了以下项目,感谢他们在开源社区中的贡献!
如果插件存在问题或者您有其他的疑问,欢迎加入我们的社群。
- QQ群:
931057213
-
微信群:
we_glm
(添加小助手微信后进群) -
discord:discord链接
- 如果想持续关注本项目的最新功能,欢迎关注B站账号:派对主持BB机
- youtube@comfyui-LLM-party
如果我的工作给您带来了价值,请考虑请我喝一杯咖啡吧!您的支持不仅为项目注入活力,也温暖了创作者的心。☕💖 每一杯都有意义!