Comfyui_llm_party aspire à développer une bibliothèque complète de nœuds pour la construction de workflows LLM, basée sur l'interface utilisateur extrêmement simplifiée de comfyui. Cela permettra aux utilisateurs de construire plus facilement et rapidement leurs propres workflows LLM et de les intégrer de manière plus pratique dans leurs workflows d'images.
EN.mp4
ComfyUI LLM Party permet de construire rapidement votre propre assistant AI personnalisé, allant des appels multi-outils de LLM aux configurations de rôle, en passant par la gestion localisée des bases de connaissances du secteur grâce aux vecteurs de mots RAG et GraphRAG. De la chaîne d'agents intelligents unique à la construction de modes d'interaction complexes entre agents intelligents, y compris les modes d'interaction radiaux et circulaires ; des besoins des utilisateurs individuels qui souhaitent intégrer leurs applications sociales (QQ, Feishu, Discord) à un flux de travail tout-en-un LLM+TTS+ComfyUI pour les travailleurs des médias en continu ; des premières applications LLM simples pour les étudiants ordinaires aux diverses interfaces de réglage de paramètres utilisées par les chercheurs, ainsi que l'adaptation des modèles. Tout cela peut être découvert lors de ComfyUI LLM Party.
- Si vous n'avez jamais utilisé ComfyUI et que vous rencontrez des problèmes de dépendance lors de l'installation de LLM Party dans ComfyUI, cliquez ici pour télécharger le package portable Windows contenant LLM Party. Attention ! Ce package portable ne comprend que les deux plugins Party et Manager, et il est uniquement compatible avec le système Windows.(Si vous devez installer LLM party sur un ComfyUI existant, cette étape peut être ignorée.)
- Faites glisser les workflows suivants dans votre comfyui, puis utilisez comfyui-Manager pour installer les nœuds manquants.
- Utilisez l'API pour appeler LLM : start_with_LLM_api
- Utilisation de aisuite pour appeler LLM : start_with_aisuite
- Gérez les LLM locaux avec ollama : start_with_Ollama
- Utilisez des LLM locaux au format distribué : start_with_LLM_local
- Utilisez des LLM locaux au format GGUF : start_with_LLM_GGUF
- Utilisez des VLM locaux au format distribué : start_with_VLM_local (Actuellement, le support est disponible pour Llama-3.2-Vision/Qwen/Qwen2.5-VL/deepseek-ai/Janus-Pro)
- Utilisez des VLM locaux au format GGUF : start_with_VLM_GGUF
- Utiliser l'API pour appeler LLM afin de générer des mots-clés SD et produire des images : commencer_avec_VLM_API_pour_SD
- Utiliser ollama pour appeler minicpm afin de générer des mots-clés SD et produire des images : commencer_avec_ollama_minicpm_pour_SD
- Utiliser le qwen-vl local pour générer des mots-clés SD et produire des images : commencer_avec_qwen_vl_local_pour_SD
- Si vous utilisez l'API, remplissez votre
base_url
(cela peut être une API relais, assurez-vous qu'elle se termine par/v1/
) etapi_key
dans le nœud de chargement de l'API LLM. Exemple :https://api.openai.com/v1/
- Si vous utilisez ollama, activez l'option
is_ollama
dans le nœud de chargement de l'API LLM, sans remplirbase_url
etapi_key
. - Si vous utilisez un modèle local, remplissez le chemin de votre modèle dans le nœud de chargement du modèle local, par exemple :
E:\model\Llama-3.2-1B-Instruct
. Vous pouvez également remplir l'ID du dépôt du modèle Huggingface dans le nœud de chargement du modèle local, par exemple :lllyasviel/omost-llama-3-8b-4bits
. - En raison du seuil d'utilisation élevé de ce projet, même si vous choisissez le démarrage rapide, j'espère que vous pourrez lire attentivement la page d'accueil du projet.
- Le nœud API LLM prend désormais en charge le mode de sortie en flux, affichant en temps réel le texte retourné par l'API dans la console, vous permettant ainsi de voir la sortie de l'API sans avoir à attendre que l'ensemble de la requête soit complété.
- Le nœud API LLM a été enrichi d'une sortie de reasoning_content, capable de séparer automatiquement le raisonnement et la réponse du modèle R1.
- Une nouvelle branche de dépôt, uniquement_api, a été ajoutée. Cette branche ne contient que la partie appelant l'API, facilitant ainsi l'utilisation pour les utilisateurs qui n'ont besoin que des appels API. Il vous suffit d'utiliser la commande dans le dossier
custom tool
decomfyui
:git clone -b only_api https://github.com/heshengtao/comfyui_LLM_party.git
, puis de suivre le schéma de déploiement environnemental du site principal de ce projet pour utiliser cette branche. Attention ! Si vous souhaitez vous assurer qu'il n'existe pas d'autre dossier nommécomfyui_LLM_party
dans le dossiercustom tool
. - Le nœud de chargeur local VLM prend désormais en charge deepseek-ai/Janus-Pro, exemple de flux de travail : Janus-Pro
- Le nœud de chargeur local VLM prend désormais en charge Qwen/Qwen2.5-VL-3B-Instruct, cependant, vous devez mettre à jour le transformateur vers la dernière version (
pip install -U transformers
), flux de travail exemple : qwen-vl - Un nouveau nœud de stockage d'images a été ajouté, prenant en charge le service d'hébergement d'images https://sm.ms (le domaine pour la Chine est https://smms.app) ainsi que https://imgbb.com. D'autres services d'hébergement d'images seront pris en charge à l'avenir. Exemple de flux de travail : Hébergement d'images
L'hébergement d'images compatible par défaut pour party a été mis à jour vers le domaine imgbb. L'ancien hébergement n'était pas convivial pour les utilisateurs de la Chine continentale, il a donc été remplacé.Je suis désolé, le service API d'hébergement d'images de https://imgbb.io semble avoir été interrompu, donc le code a été rétabli à l'original https://imgbb.com. Merci pour votre compréhension. À l'avenir, je vais mettre à jour un nœud qui supportera davantage d'hébergements d'images.- L'outil MCP a été mis à jour, vous pouvez modifier la configuration dans le fichier 'mcp_config.json' situé dans le dossier du projet party pour ajuster la connexion au serveur MCP souhaité. Vous pouvez trouver ici divers paramètres de configuration des serveurs MCP que vous souhaitez ajouter : modelcontextprotocol/servers. La configuration par défaut de ce projet est le serveur Everything, qui sert à tester si le serveur MCP fonctionne correctement. Workflow de référence : start_with_MCP. Note pour les développeurs : le nœud d'outil MCP peut se connecter au serveur MCP que vous avez configuré, puis transformer les outils du serveur en outils directement utilisables par LLM. En configurant différents serveurs locaux ou cloud, vous pouvez expérimenter tous les outils LLM disponibles dans le monde.
-
Pour les instructions d'utilisation des nœuds, veuillez consulter : 怎么使用节点
-
Si vous rencontrez des problèmes avec le plugin ou si vous avez d'autres questions, n'hésitez pas à rejoindre le groupe QQ : 931057213 |discord:discord.
-
Pour plus de flux de travail, veuillez consulter le dossier workflow.


- Prise en charge de tous les appels API au format OpenAI (en combinaison avec oneapi, il est possible d'appeler presque toutes les API LLM, ainsi que toutes les API de transit). Pour le choix de base_url, veuillez vous référer à config.ini.example. Actuellement, les API testées incluent :
- openai (Parfaitement compatible avec tous les modèles OpenAI, y compris les séries 4o et o1!)
- ollama (Recommandé! Si vous appelez localement, il est fortement recommandé d'utiliser la méthode ollama pour héberger votre modèle local!)
- Azure OpenAI
- llama.cpp (Recommandé! Si vous souhaitez utiliser le modèle au format gguf local, vous pouvez utiliser l'API du projet llama.cpp pour accéder à ce projet!)
- Grok
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Gemini (Le nœud de chargeur API LLM d'origine Gemini a été abandonné dans la nouvelle version, veuillez utiliser le nœud de chargeur API LLM avec l'URL de base choisie : https://generativelanguage.googleapis.com/v1beta/)
- Support de tous les appels API compatibles avec aisuite :
- Compatible avec la plupart des modèles locaux dans la bibliothèque transformer (le type de modèle sur le nœud de chaîne de modèles LLM local a été changé en LLM, VLM-GGUF et LLM-GGUF, correspondant au chargement direct des modèles LLM, au chargement des modèles VLM et au chargement des modèles LLM au format GGUF). Si votre modèle LLM au format VLM ou GGUF signale une erreur, veuillez télécharger la dernière version de llama-cpp-python depuis llama-cpp-python. Les modèles actuellement testés incluent :
- ClosedCharacter/Peach-9B-8k-Roleplay (recommandé ! Modèle de jeu de rôle)
- lllyasviel/omost-llama-3-8b-4bits (recommandé ! Modèle avec des invites riches)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Qwen/Qwen2.5-VL-3B-Instruct
- deepseek-ai/Janus-Pro
- Téléchargement des modèles :
- Adresse du cloud Quark
- Adresse Baidu Cloud, code d'extraction : qyhu
Installez en utilisant l'une des méthodes suivantes
- Recherchez
comfyui_LLM_party
dans le gestionnaire ComfyUI et installez-le d'un seul clic - Redémarrez ComfyUI
- Naviguez vers le sous-dossier
custom_nodes
dans le dossier racine de ComfyUI. - Clonez ce dépôt.
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Cliquez sur
CODE
en haut à droite. - Cliquez sur
télécharger zip
. - Décompressez le fichier zip téléchargé dans le sous-dossier
custom_nodes
du dossier racine de ComfyUI.
- Naviguez vers le dossier du projet
comfyui_LLM_party
. - Dans le terminal, saisissez
pip install -r requirements.txt
pour déployer les bibliothèques tierces nécessaires à ce projet dans l'environnement de comfyui. Veuillez vérifier que vous installez dans l'environnement de comfyui et faites attention aux erreurspip
dans le terminal. - Si vous utilisez le lanceur comfyui, vous devez entrer dans le terminal
chemin dans la configuration du lanceur\python_embeded\python.exe -m pip install -r requirements.txt
pour procéder à l'installation. Le dossierpython_embeded
est généralement au même niveau que votre dossierComfyUI
. - Si vous rencontrez des problèmes de configuration de l'environnement, vous pouvez essayer d'utiliser les dépendances dans
requirements_fixed.txt
.
- Vous pouvez configurer la langue dans le fichier
config.ini
, actuellement seules le chinois (zh_CN) et l'anglais (en_US) sont disponibles, la langue par défaut étant celle de votre système. - Vous pouvez configurer l'installation rapide dans le fichier
config.ini
,fast_installed
est par défautFalse
. Si vous n'avez pas besoin d'utiliser le modèle GGUF, vous pouvez le régler surTrue
. - Vous pouvez configurer l'APIKEY en utilisant l'une des méthodes suivantes :
- Ouvrez le fichier
config.ini
dans le dossier du projetcomfyui_LLM_party
. - Dans
config.ini
, saisissez votreopenai_api_key
etbase_url
. - Si vous utilisez le modèle ollama, entrez
http://127.0.0.1:11434/v1/
dansbase_url
,ollama
dansopenai_api_key
, et le nom de votre modèle dansmodel_name
, par exemple : llama3. - Si vous souhaitez utiliser les outils de recherche Google ou Bing, saisissez votre
google_api_key
,cse_id
oubing_api_key
dansconfig.ini
. - Si vous désirez utiliser des entrées d'images pour LLM, il est recommandé d'utiliser le service d'hébergement d'images imgbb, et d'indiquer votre
imgbb_api
dansconfig.ini
. - Chaque modèle peut être configuré individuellement dans le fichier
config.ini
, vous pouvez vous référer au fichierconfig.ini.example
pour vous aider. Une fois que vous avez terminé la configuration, il vous suffit de saisirmodel_name
dans le nœud.
- Ouvrez l'interface comfyui.
- Créez un nœud de grand modèle de langage (LLM) et saisissez directement votre
openai_api_key
etbase_url
dans le nœud. - Si vous utilisez le modèle ollama, veuillez utiliser le nœud LLM_api, entrer
http://127.0.0.1:11434/v1/
dansbase_url
,ollama
dansapi_key
, et le nom de votre modèle dansmodel_name
, par exemple : llama3. - Si vous souhaitez utiliser des entrées d'images pour LLM, il est recommandé d'utiliser le service d'hébergement d'images imgbb et d'indiquer votre
imgbb_api_key
dans le nœud.
- Plus d'adaptations de modèles;
- Plus de façons de construire des agents;
- Plus de fonctionnalités d'automatisation;
- Plus de fonctionnalités de gestion de la base de connaissances;
- Plus d'outils, plus de personas.
Ce projet open source et son contenu (ci-après dénommé "projet") sont fournis uniquement à titre de référence et ne constituent en aucun cas une garantie expresse ou implicite. Les contributeurs du projet ne sauraient être tenus responsables de l'intégrité, de l'exactitude, de la fiabilité ou de l'applicabilité du projet. Toute action reposant sur le contenu du projet se fait à vos propres risques. En aucun cas, les contributeurs du projet ne sauraient être tenus responsables des pertes ou dommages indirects, spéciaux ou consécutifs résultant de l'utilisation du contenu du projet.
Certaines des fonctionnalités de ce projet s'inspirent des projets suivants, nous les remercions pour leur contribution à la communauté open source !
Si vous rencontrez des problèmes avec le plugin ou si vous avez d'autres questions, n'hésitez pas à rejoindre notre communauté.
- Groupe QQ :
931057213
-
Groupe WeChat :
we_glm
(ajoutez le petit assistant WeChat pour rejoindre le groupe) -
discord : lien discord
- Si vous souhaitez rester informé des dernières fonctionnalités de ce projet, n'hésitez pas à suivre notre compte Bilibili : 派酱
- youtube@comfyui-LLM-party
Si mon travail vous apporte de la valeur, veuillez envisager de m'offrir un café ! Votre soutien insuffle non seulement de la vitalité au projet, mais réchauffe également le cœur des créateurs.☕💖 Chaque tasse compte !