Comfyui_llm_party tiene la intención de desarrollar una biblioteca completa de nodos para la construcción de flujos de trabajo de LLM, basada en la interfaz de usuario extremadamente simple de comfyui como frontend. Esto permitirá a los usuarios construir sus flujos de trabajo de LLM de manera más rápida y conveniente, además de facilitar la integración de sus flujos de trabajo de imágenes.
EN.mp4
ComfyUI LLM Party permite desde la llamada a múltiples herramientas LLM desde la base, la rápida configuración de un asistente AI personalizado, hasta la implementación de vectores de palabras RAG y GraphRAG para la gestión local de bases de datos de conocimiento en la industria; desde una simple línea de agentes inteligentes hasta la construcción de complejos modos de interacción radial entre agentes inteligentes y modos de interacción en círculo; desde la integración de aplicaciones sociales (QQ, Feishu, Discord) para usuarios individuales, hasta un flujo de trabajo integral de LLM+TTS+ComfyUI para trabajadores de streaming; desde el inicio sencillo que necesita un estudiante común con su primera aplicación LLM, hasta las diversas interfaces de ajuste de parámetros frecuentemente utilizadas por investigadores. Todo esto lo puedes encontrar en ComfyUI LLM Party.
- Si nunca has utilizado ComfyUI y al instalar LLM party en ComfyUI has encontrado algunos problemas de dependencia, haz clic aquí para descargar el paquete portátil de ComfyUI windows que incluye LLM party. ¡Atención! Este paquete portátil contiene únicamente los dos plugins: party y manager, y es exclusivamente para sistemas Windows.(En caso de que necesite instalar LLM party en un comfyui existente, este paso se puede omitir.)
- Arrastra los siguientes flujos de trabajo a tu comfyui, luego usa comfyui-Manager para instalar los nodos faltantes.
- Usa la API para llamar a LLM: start_with_LLM_api
- Llamando a LLM con aisuite: iniciar_con_aisuite
- Gestiona LLM local con ollama: start_with_Ollama
- Usa LLM local en formato distribuido: start_with_LLM_local
- Usa LLM local en formato GGUF: start_with_LLM_GGUF
- Usa VLM local en formato distribuido: start_with_VLM_local (en prueba, actualmente solo admite Llama-3.2-Vision-Instruct)
- Usa VLM local en formato GGUF: start_with_VLM_GGUF
- Si estás usando la API, completa tu
base_url
(puede ser una API de retransmisión, asegúrate de que termine con/v1/
) yapi_key
en el nodo de carga de API LLM. Ejemplo:https://api.openai.com/v1/
- Si estás usando ollama, activa la opción
is_ollama
en el nodo de carga de API LLM, no es necesario completarbase_url
yapi_key
. - Si estás usando un modelo local, completa la ruta de tu modelo en el nodo de carga del modelo local, por ejemplo:
E:\model\Llama-3.2-1B-Instruct
. También puedes completar el ID del repositorio del modelo en Huggingface en el nodo de carga del modelo local, por ejemplo:lllyasviel/omost-llama-3-8b-4bits
. - Debido al alto umbral de uso de este proyecto, incluso si eliges el inicio rápido, espero que puedas leer pacientemente la página principal del proyecto.
- Se ha añadido un nuevo nodo de alojamiento de imágenes, que actualmente admite el alojamiento de imágenes de https://sm.ms (el dominio en la región de China es https://smms.app) y https://imgbb.com. En el futuro, se admitirán más alojamientos de imágenes. Ejemplo de flujo de trabajo: Alojamiento de imágenes
El servicio de alojamiento de imágenes imgbb, que es compatible de manera predeterminada con party, se ha actualizado al dominio imgbb. El alojamiento anterior no era amigable para los usuarios de China continental, por lo que se ha cambiado.Lamento informar que el servicio API de alojamiento de imágenes en https://imgbb.io parece haber sido descontinuado, por lo que el código ha vuelto a la original https://imgbb.com. Agradezco su comprensión. En el futuro, actualizaré un nodo que soporte más servicios de alojamiento de imágenes.- Se ha actualizado la herramienta MCP, puedes modificar la configuración en el archivo 'mcp_config.json' en la carpeta del proyecto party para ajustar el servidor MCP al que deseas conectarte. Puedes encontrar varios parámetros de configuración de servidores MCP que deseas agregar aquí: modelcontextprotocol/servers. La configuración predeterminada de este proyecto es el servidor Everything, un servidor destinado a probar si el servidor MCP funciona correctamente. Flujo de trabajo de referencia: start_with_MCP. Nota para desarrolladores: el nodo de la herramienta MCP puede conectarse al servidor MCP configurado y luego convertir las herramientas del servidor en herramientas que el LLM pueda utilizar directamente. Al configurar diferentes servidores locales o en la nube, puedes experimentar todas las herramientas LLM disponibles en el mundo.
-
Para las instrucciones de uso de los nodos, consulta: 怎么使用节点
-
Si hay problemas con el plugin o tienes otras dudas, no dudes en unirte a nuestro grupo de QQ: 931057213 | discord:discord.
-
Para más flujos de trabajo, puede consultar la carpeta workflow.
- Se admiten todas las llamadas a la API en formato OpenAI (en combinación con oneapi se pueden realizar llamadas a casi todas las API de LLM, también se admiten todas las API de retransmisión), para la elección de base_url, consulte config.ini.example. Actualmente se han probado las siguientes:
- openai (¡Perfectamente compatible con todos los modelos de OpenAI, incluidas las series 4o y o1!)
- ollama (¡Recomendado! Si estás llamando localmente, se recomienda encarecidamente utilizar el método ollama para alojar tu modelo local!)
- Azure OpenAI
- llama.cpp (¡Recomendado! Si deseas utilizar el modelo en formato gguf local, puedes utilizar la API del proyecto llama.cpp para acceder a este proyecto!)
- Grok
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Gemini(El nodo cargador de la API LLM original de Gemini ha sido descontinuado en la nueva versión, por favor utilice el nodo cargador de la API LLM, seleccionando base_url como: https://generativelanguage.googleapis.com/v1beta/)
- Soporte para todas las llamadas a la API compatibles con aisuite:
- Compatible con la mayoría de los modelos locales en la biblioteca transformer (el tipo de modelo en el nodo de la cadena de modelos LLM local se ha cambiado a LLM, VLM-GGUF y LLM-GGUF, lo que corresponde a cargar directamente modelos LLM, cargar modelos VLM y cargar modelos LLM en formato GGUF). Si tu modelo LLM en formato VLM o GGUF informa un error, descarga la última versión de llama-cpp-python desde llama-cpp-python. Los modelos actualmente probados incluyen:
- ClosedCharacter/Peach-9B-8k-Roleplay (¡Recomendado! Modelo de rol)
- lllyasviel/omost-llama-3-8b-4bits (¡Recomendado! Modelo de palabras clave ricas)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Descarga del modelo:
- Dirección de nube Quark
- Dirección de Baidu Cloud, código de extracción: qyhu
Instale utilizando uno de los siguientes métodos:
- Busque
comfyui_LLM_party
en el administrador de ComfyUI e instálelo con un solo clic. - Reinicie ComfyUI.
- Navegue hasta la subcarpeta
custom_nodes
en la carpeta raíz de ComfyUI. - Clone este repositorio.
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Haga clic en
CODE
en la esquina superior derecha. - Haga clic en
download zip
. - Extraiga el archivo comprimido descargado en la subcarpeta
custom_nodes
de la carpeta raíz de ComfyUI.
- Navegue hasta la carpeta del proyecto
comfyui_LLM_party
. - En la terminal, ingrese
pip install -r requirements.txt
para implementar las bibliotecas de terceros necesarias para este proyecto en el entorno de comfyui. Tenga en cuenta si está instalando en el entorno de comfyui y preste atención a los errores depip
en la terminal. - Si está utilizando el lanzador de comfyui, deberá ingresar en la terminal
ruta en la configuración del lanzador\python_embeded\python.exe -m pip install -r requirements.txt
para realizar la instalación. La carpetapython_embeded
generalmente está al mismo nivel que su carpetaComfyUI
. - Si encuentra problemas con la configuración del entorno, puede intentar usar las dependencias del archivo
requirements_fixed.txt
.
- Puede configurar el idioma en
config.ini
, actualmente solo hay dos opciones: chino (zh_CN) e inglés (en_US), siendo el predeterminado el idioma de su sistema. - Puede utilizar uno de los siguientes métodos para configurar el APIKEY.
- Abra el archivo
config.ini
en la carpeta del proyectocomfyui_LLM_party
. - Ingrese su
openai_api_key
ybase_url
enconfig.ini
. - Si utiliza el modelo ollama, ingrese
http://127.0.0.1:11434/v1/
enbase_url
,ollama
enopenai_api_key
, y el nombre de su modelo enmodel_name
, por ejemplo: llama3. - Si desea utilizar herramientas de búsqueda de Google o Bing, ingrese su
google_api_key
,cse_id
obing_api_key
enconfig.ini
. - Si desea utilizar entrada de imágenes para LLM, se recomienda usar el servicio de alojamiento de imágenes imgbb, ingresando su
imgbb_api
enconfig.ini
. - Cada modelo se puede configurar individualmente en el archivo
config.ini
, y puede consultar el archivoconfig.ini.example
para completar la configuración. Una vez que esté configurado, solo necesita ingresarmodel_name
en el nodo.
- Abra la interfaz de comfyui.
- Cree un nuevo nodo de modelo de lenguaje grande (LLM), ingresando directamente su
openai_api_key
ybase_url
en el nodo. - Si utiliza el modelo ollama, utilice el nodo LLM_api, ingresando
http://127.0.0.1:11434/v1/
enbase_url
,ollama
enapi_key
, y el nombre de su modelo enmodel_name
, por ejemplo: llama3. - Si desea utilizar entrada de imágenes para LLM, se recomienda usar el servicio de alojamiento de imágenes imgbb, ingresando su
imgbb_api_key
en el nodo.
- Más adaptaciones de modelos;
- Más formas de construir agentes;
- Más funciones de automatización;
- Más funciones de gestión de bases de conocimiento;
- Más herramientas, más personajes.
Este proyecto de código abierto y su contenido (en adelante, "el proyecto") son solo para fines de referencia y no implican ninguna garantía expresa o implícita. Los contribuyentes del proyecto no asumen ninguna responsabilidad por la integridad, precisión, fiabilidad o aplicabilidad del proyecto. Cualquier acción que dependa del contenido del proyecto debe asumir el riesgo por su cuenta. En ningún caso, los contribuyentes del proyecto serán responsables de cualquier pérdida o daño indirecto, especial o incidental que surja del uso del contenido del proyecto.
Algunos nodos en este proyecto se han inspirado en los siguientes proyectos. ¡Agradecemos su contribución a la comunidad de código abierto!
Si hay problemas con el complemento o si tiene alguna otra pregunta, le damos la bienvenida a unirse a nuestra comunidad.
- Grupo de QQ:
931057213
-
Grupo de WeChat:
we_glm
(una vez que añada a la asistente de WeChat, podrá unirse al grupo) -
Discord: enlace de discord
- Si desea mantenerse informado sobre las últimas funciones de este proyecto, le invitamos a seguir nuestra cuenta de Bilibili: 主持BB机
- youtube@comfyui-LLM-party
Si mi trabajo le ha aportado valor, ¡considere invitarme a un café! Su apoyo no solo revitaliza el proyecto, sino que también calienta el corazón del creador.☕💖 ¡Cada taza cuenta!