Skip to content

Latest commit

 

History

History
209 lines (175 loc) · 20.7 KB

README_FR.md

File metadata and controls

209 lines (175 loc) · 20.7 KB

Image

Comfyui_llm_party aspire à développer une bibliothèque complète de nœuds pour la construction de workflows LLM, basée sur l'interface utilisateur extrêmement simplifiée de comfyui. Cela permettra aux utilisateurs de construire plus facilement et rapidement leurs propres workflows LLM et de les intégrer de manière plus pratique dans leurs workflows d'images.

Démonstration des effets

EN.mp4

Aperçu du projet

ComfyUI LLM Party permet de construire rapidement votre propre assistant AI personnalisé, allant des appels multi-outils de LLM aux configurations de rôle, en passant par la gestion localisée des bases de connaissances du secteur grâce aux vecteurs de mots RAG et GraphRAG. De la chaîne d'agents intelligents unique à la construction de modes d'interaction complexes entre agents intelligents, y compris les modes d'interaction radiaux et circulaires ; des besoins des utilisateurs individuels qui souhaitent intégrer leurs applications sociales (QQ, Feishu, Discord) à un flux de travail tout-en-un LLM+TTS+ComfyUI pour les travailleurs des médias en continu ; des premières applications LLM simples pour les étudiants ordinaires aux diverses interfaces de réglage de paramètres utilisées par les chercheurs, ainsi que l'adaptation des modèles. Tout cela peut être découvert lors de ComfyUI LLM Party.

Démarrage rapide

  1. Si vous n'avez jamais utilisé ComfyUI et que vous rencontrez des problèmes de dépendance lors de l'installation de LLM Party dans ComfyUI, cliquez ici pour télécharger le package portable Windows contenant LLM Party. Attention ! Ce package portable ne comprend que les deux plugins Party et Manager, et il est uniquement compatible avec le système Windows.(Si vous devez installer LLM party sur un ComfyUI existant, cette étape peut être ignorée.)
  2. Faites glisser les workflows suivants dans votre comfyui, puis utilisez comfyui-Manager pour installer les nœuds manquants.
  1. Si vous utilisez l'API, remplissez votre base_url (cela peut être une API relais, assurez-vous qu'elle se termine par /v1/) et api_key dans le nœud de chargement de l'API LLM. Exemple : https://api.openai.com/v1/
  2. Si vous utilisez ollama, activez l'option is_ollama dans le nœud de chargement de l'API LLM, sans remplir base_url et api_key.
  3. Si vous utilisez un modèle local, remplissez le chemin de votre modèle dans le nœud de chargement du modèle local, par exemple : E:\model\Llama-3.2-1B-Instruct. Vous pouvez également remplir l'ID du dépôt du modèle Huggingface dans le nœud de chargement du modèle local, par exemple : lllyasviel/omost-llama-3-8b-4bits.
  4. En raison du seuil d'utilisation élevé de ce projet, même si vous choisissez le démarrage rapide, j'espère que vous pourrez lire attentivement la page d'accueil du projet.

Dernières mises à jour

  1. Le nœud API LLM prend désormais en charge le mode de sortie en flux, affichant en temps réel le texte retourné par l'API dans la console, vous permettant ainsi de voir la sortie de l'API sans avoir à attendre que l'ensemble de la requête soit complété.
  2. Le nœud API LLM a été enrichi d'une sortie de reasoning_content, capable de séparer automatiquement le raisonnement et la réponse du modèle R1.
  3. Une nouvelle branche de dépôt, uniquement_api, a été ajoutée. Cette branche ne contient que la partie appelant l'API, facilitant ainsi l'utilisation pour les utilisateurs qui n'ont besoin que des appels API. Il vous suffit d'utiliser la commande dans le dossier custom tool de comfyui : git clone -b only_api https://github.com/heshengtao/comfyui_LLM_party.git, puis de suivre le schéma de déploiement environnemental du site principal de ce projet pour utiliser cette branche. Attention ! Si vous souhaitez vous assurer qu'il n'existe pas d'autre dossier nommé comfyui_LLM_party dans le dossier custom tool.
  4. Le nœud de chargeur local VLM prend désormais en charge deepseek-ai/Janus-Pro, exemple de flux de travail : Janus-Pro
  5. Le nœud de chargeur local VLM prend désormais en charge Qwen/Qwen2.5-VL-3B-Instruct, cependant, vous devez mettre à jour le transformateur vers la dernière version (pip install -U transformers), flux de travail exemple : qwen-vl
  6. Un nouveau nœud de stockage d'images a été ajouté, prenant en charge le service d'hébergement d'images https://sm.ms (le domaine pour la Chine est https://smms.app) ainsi que https://imgbb.com. D'autres services d'hébergement d'images seront pris en charge à l'avenir. Exemple de flux de travail : Hébergement d'images
  7. L'hébergement d'images compatible par défaut pour party a été mis à jour vers le domaine imgbb. L'ancien hébergement n'était pas convivial pour les utilisateurs de la Chine continentale, il a donc été remplacé. Je suis désolé, le service API d'hébergement d'images de https://imgbb.io semble avoir été interrompu, donc le code a été rétabli à l'original https://imgbb.com. Merci pour votre compréhension. À l'avenir, je vais mettre à jour un nœud qui supportera davantage d'hébergements d'images.
  8. L'outil MCP a été mis à jour, vous pouvez modifier la configuration dans le fichier 'mcp_config.json' situé dans le dossier du projet party pour ajuster la connexion au serveur MCP souhaité. Vous pouvez trouver ici divers paramètres de configuration des serveurs MCP que vous souhaitez ajouter : modelcontextprotocol/servers. La configuration par défaut de ce projet est le serveur Everything, qui sert à tester si le serveur MCP fonctionne correctement. Workflow de référence : start_with_MCP. Note pour les développeurs : le nœud d'outil MCP peut se connecter au serveur MCP que vous avez configuré, puis transformer les outils du serveur en outils directement utilisables par LLM. En configurant différents serveurs locaux ou cloud, vous pouvez expérimenter tous les outils LLM disponibles dans le monde.

Instructions d'utilisation

  1. Pour les instructions d'utilisation des nœuds, veuillez consulter : 怎么使用节点

  2. Si vous rencontrez des problèmes avec le plugin ou si vous avez d'autres questions, n'hésitez pas à rejoindre le groupe QQ : 931057213 |discord:discord.

  3. Pour plus de flux de travail, veuillez consulter le dossier workflow.

Tutoriels vidéo

octocat octocat

Support du modèle

  1. Prise en charge de tous les appels API au format OpenAI (en combinaison avec oneapi, il est possible d'appeler presque toutes les API LLM, ainsi que toutes les API de transit). Pour le choix de base_url, veuillez vous référer à config.ini.example. Actuellement, les API testées incluent :
  1. Support de tous les appels API compatibles avec aisuite :
  1. Compatible avec la plupart des modèles locaux dans la bibliothèque transformer (le type de modèle sur le nœud de chaîne de modèles LLM local a été changé en LLM, VLM-GGUF et LLM-GGUF, correspondant au chargement direct des modèles LLM, au chargement des modèles VLM et au chargement des modèles LLM au format GGUF). Si votre modèle LLM au format VLM ou GGUF signale une erreur, veuillez télécharger la dernière version de llama-cpp-python depuis llama-cpp-python. Les modèles actuellement testés incluent :
  1. Téléchargement des modèles :

Téléchargement

Installez en utilisant l'une des méthodes suivantes

Méthode 1 :

  1. Recherchez comfyui_LLM_party dans le gestionnaire ComfyUI et installez-le d'un seul clic
  2. Redémarrez ComfyUI

Méthode deux :

  1. Naviguez vers le sous-dossier custom_nodes dans le dossier racine de ComfyUI.
  2. Clonez ce dépôt. git clone https://github.com/heshengtao/comfyui_LLM_party.git

Méthode trois :

  1. Cliquez sur CODE en haut à droite.
  2. Cliquez sur télécharger zip.
  3. Décompressez le fichier zip téléchargé dans le sous-dossier custom_nodes du dossier racine de ComfyUI.

Déploiement de l'environnement

  1. Naviguez vers le dossier du projet comfyui_LLM_party.
  2. Dans le terminal, saisissez pip install -r requirements.txt pour déployer les bibliothèques tierces nécessaires à ce projet dans l'environnement de comfyui. Veuillez vérifier que vous installez dans l'environnement de comfyui et faites attention aux erreurs pip dans le terminal.
  3. Si vous utilisez le lanceur comfyui, vous devez entrer dans le terminal chemin dans la configuration du lanceur\python_embeded\python.exe -m pip install -r requirements.txt pour procéder à l'installation. Le dossier python_embeded est généralement au même niveau que votre dossier ComfyUI.
  4. Si vous rencontrez des problèmes de configuration de l'environnement, vous pouvez essayer d'utiliser les dépendances dans requirements_fixed.txt.

Configuration

  • Vous pouvez configurer la langue dans le fichier config.ini, actuellement seules le chinois (zh_CN) et l'anglais (en_US) sont disponibles, la langue par défaut étant celle de votre système.
  • Vous pouvez configurer l'installation rapide dans le fichier config.ini, fast_installed est par défaut False. Si vous n'avez pas besoin d'utiliser le modèle GGUF, vous pouvez le régler sur True.
  • Vous pouvez configurer l'APIKEY en utilisant l'une des méthodes suivantes :

Méthode 1 :

  1. Ouvrez le fichier config.ini dans le dossier du projet comfyui_LLM_party.
  2. Dans config.ini, saisissez votre openai_api_key et base_url.
  3. Si vous utilisez le modèle ollama, entrez http://127.0.0.1:11434/v1/ dans base_url, ollama dans openai_api_key, et le nom de votre modèle dans model_name, par exemple : llama3.
  4. Si vous souhaitez utiliser les outils de recherche Google ou Bing, saisissez votre google_api_key, cse_id ou bing_api_key dans config.ini.
  5. Si vous désirez utiliser des entrées d'images pour LLM, il est recommandé d'utiliser le service d'hébergement d'images imgbb, et d'indiquer votre imgbb_api dans config.ini.
  6. Chaque modèle peut être configuré individuellement dans le fichier config.ini, vous pouvez vous référer au fichier config.ini.example pour vous aider. Une fois que vous avez terminé la configuration, il vous suffit de saisir model_name dans le nœud.

Méthode 2 :

  1. Ouvrez l'interface comfyui.
  2. Créez un nœud de grand modèle de langage (LLM) et saisissez directement votre openai_api_key et base_url dans le nœud.
  3. Si vous utilisez le modèle ollama, veuillez utiliser le nœud LLM_api, entrer http://127.0.0.1:11434/v1/ dans base_url, ollama dans api_key, et le nom de votre modèle dans model_name, par exemple : llama3.
  4. Si vous souhaitez utiliser des entrées d'images pour LLM, il est recommandé d'utiliser le service d'hébergement d'images imgbb et d'indiquer votre imgbb_api_key dans le nœud.

Journal des mises à jour

Click here

Prochaines étapes :

  1. Plus d'adaptations de modèles;
  2. Plus de façons de construire des agents;
  3. Plus de fonctionnalités d'automatisation;
  4. Plus de fonctionnalités de gestion de la base de connaissances;
  5. Plus d'outils, plus de personas.

Avertissement :

Ce projet open source et son contenu (ci-après dénommé "projet") sont fournis uniquement à titre de référence et ne constituent en aucun cas une garantie expresse ou implicite. Les contributeurs du projet ne sauraient être tenus responsables de l'intégrité, de l'exactitude, de la fiabilité ou de l'applicabilité du projet. Toute action reposant sur le contenu du projet se fait à vos propres risques. En aucun cas, les contributeurs du projet ne sauraient être tenus responsables des pertes ou dommages indirects, spéciaux ou consécutifs résultant de l'utilisation du contenu du projet.

Remerciements spéciaux

octocat octocat octocat

Liste des emprunts

Certaines des fonctionnalités de ce projet s'inspirent des projets suivants, nous les remercions pour leur contribution à la communauté open source !

  1. pythongosssss/ComfyUI-Custom-Scripts
  2. lllyasviel/Omost

Support :

Rejoignez la communauté

Si vous rencontrez des problèmes avec le plugin ou si vous avez d'autres questions, n'hésitez pas à rejoindre notre communauté.

  1. Groupe QQ : 931057213
  1. Groupe WeChat : we_glm (ajoutez le petit assistant WeChat pour rejoindre le groupe)

  2. discord : lien discord

Suivez-nous

  1. Si vous souhaitez rester informé des dernières fonctionnalités de ce projet, n'hésitez pas à suivre notre compte Bilibili : 派酱
  2. youtube@comfyui-LLM-party

Soutien par don

Si mon travail vous apporte de la valeur, veuillez envisager de m'offrir un café ! Votre soutien insuffle non seulement de la vitalité au projet, mais réchauffe également le cœur des créateurs.☕💖 Chaque tasse compte !

Historique des étoiles

Star History Chart