Comfyui_llm_party beabsichtigt, basierend auf comfyui, einer äußerst minimalistischen Benutzeroberfläche, eine vollständige Bibliothek von Knoten für den Aufbau von LLM-Workflows zu entwickeln. Dies ermöglicht es den Benutzern, ihre eigenen LLM-Workflows schneller und einfacher zu erstellen und diese nahtlos in ihre Bild-Workflows zu integrieren.
EN.mp4
ComfyUI LLM Party bietet Ihnen von den grundlegendsten LLM-Multitoolaufrufen und der schnellen Einrichtung Ihres eigenen AI-Assistenten bis hin zu branchenspezifischen Lösungen wie Wortvektor-RAG und GraphRAG zur lokalen Verwaltung von Wissensdatenbanken eine umfassende Palette. Von einfachen Agenten-Pipelines bis hin zu komplexen Interaktionsmodellen zwischen Agenten, wie radialen und zirkulären Interaktionen; von den Anforderungen individueller Nutzer, ihre sozialen Apps (QQ, Feishu, Discord) anzubinden, bis hin zu den Bedürfnissen von Streamern nach einem One-Stop-LLM+TTS+ComfyUI-Workflow; von den einfachen Einstiegsmöglichkeiten für gewöhnliche Studierende bis zu den verschiedenen Parametereinstellungs-Interfaces, die von Forschenden häufig genutzt werden, und der Modellanpassung – all dies finden Sie in der ComfyUI LLM Party.
- Ziehen Sie die folgenden Workflows in Ihr comfyui und verwenden Sie dann comfyui-Manager, um die fehlenden Knoten zu installieren.
- Verwenden Sie die API, um LLM aufzurufen: start_with_LLM_api
- Verwalten Sie lokale LLMs mit ollama: start_with_Ollama
- Verwenden Sie lokale LLMs im verteilten Format: start_with_LLM_local
- Verwenden Sie lokale LLMs im GGUF-Format: start_with_LLM_GGUF
- Verwenden Sie lokale VLMs im verteilten Format: start_with_VLM_local (Testphase, derzeit nur Llama-3.2-Vision-Instruct unterstützt)
- Verwenden Sie lokale VLMs im GGUF-Format: start_with_VLM_GGUF
- Wenn Sie die API verwenden, füllen Sie im API LLM-Ladeknoten Ihre
base_url
(es kann eine Relay-API sein, stellen Sie sicher, dass sie mit/v1/
endet) undapi_key
aus. Beispiel:https://api.openai.com/v1/
- Wenn Sie ollama verwenden, aktivieren Sie die Option
is_ollama
im API LLM-Ladeknoten, ohnebase_url
undapi_key
auszufüllen. - Wenn Sie ein lokales Modell verwenden, geben Sie im lokalen Modell-Ladeknoten Ihren Modellpfad ein, z.B.:
E:\model\Llama-3.2-1B-Instruct
. Sie können auch die Huggingface Modell-Repo-ID im lokalen Modell-Ladeknoten eingeben, z.B.:lllyasviel/omost-llama-3-8b-4bits
. - Aufgrund der hohen Nutzungsschwelle dieses Projekts hoffe ich, dass Sie sich die Zeit nehmen, die Projektseite gründlich zu lesen, auch wenn Sie den Schnellstart gewählt haben.
- Ich habe chatgpt-on-wechat geforkt und ein neues Repository party-on-wechat erstellt. Die Installations- und Verwendungsmethoden sind identisch mit dem Originalprojekt, keine Konfiguration ist erforderlich, Sie müssen nur das FastAPI von party starten. Standardmäßig wird der wx_api-Arbeitsablauf aufgerufen und es wird eine Bildausgabe unterstützt. Es wird nach und nach aktualisiert, um eine reibungslose Nutzung von party in WeChat sicherzustellen.
- Ein In-Context-LoRA-Maskennode wurde hinzugefügt, der zur Generierung konsistenter In-Context-LoRA-Hinweise verwendet wird.
- Wir haben eine Frontend-Komponente hinzugefügt, deren Funktionen von links nach rechts angeordnet sind:
- Speichert Ihren API-Schlüssel und die Base URL in der Datei
config.ini
. Wenn Sie die Funktionfix node
auf dem API-LLM-Lader-Knoten verwenden, liest er den geänderten API-Schlüssel und die Base URL automatisch aus der Dateiconfig.ini
. - Startet einen FastAPI-Dienst, der zum Aufrufen Ihrer ComfyUI-Arbeitsabläufe verwendet werden kann. Wenn Sie ihn direkt ausführen, erhalten Sie eine OpenAI-Schnittstelle unter
http://127.0.0.1:8817/v1/
. Sie müssen den Anfang und das Ende Ihres Arbeitsablaufs mit den Knoten 'Arbeitsablauf Starten' und 'Arbeitsablauf Beenden' verbinden und dann im API-Format im Ordnerworkflow_api
speichern. Dann geben Sie in einem anderen Frontend, das die OpenAI-Schnittstelle aufrufen kann,model name=<Ihr Ablaufname ohne .json-Erweiterung>
,Base URL=http://127.0.0.1:8817/v1/
ein, und der API-Schlüssel kann beliebig ausgefüllt werden. - Startet eine Streamlit-Anwendung; der Speicherprozess für den Arbeitsablauf ist wie oben beschrieben. Sie können Ihren gespeicherten Arbeitsablauf in den 'Einstellungen' der Streamlit-Anwendung auswählen und mit Ihrem Arbeitsablauf-Agenten im 'Chat' interagieren.
- 'Über uns', welches dieses Projekt vorstellt.
- Der automatische Modellnamen-Listen-Knoten wurde entfernt und durch einen einfachen API-LLM-Ladeknoten ersetzt, der automatisch die Liste der Modellnamen aus der Konfiguration in Ihrer config.ini-Datei abruft. Sie müssen nur einen Namen auswählen, um das Modell zu laden. Außerdem wurden die einfachen LLM-Loader-, LLM-GGUF-Loader-, VLM-Loader-, VLM-GGUF-Loader- und LLM-Lora-Loader-Knoten aktualisiert. Sie lesen alle automatisch die Modellpfade aus dem Model-Ordner im Party-Ordner, was das Laden verschiedener lokaler Modelle erleichtert.
- LLMs können jetzt lora wie SD und FLUX dynamisch laden. Sie können mehrere loras verketten, um mehr loras auf denselben LLM zu laden. Beispiel-Workflow: start_with_LLM_LORA.
- Das Tool searxng wurde hinzugefügt, das Suchvorgänge im gesamten Web aggregieren kann. Perplexica basiert ebenfalls auf diesem aggregierten Suchtool, was bedeutet, dass Sie auf einer Party ein Perplexica einrichten können. Sie können das öffentliche Image searxng/searxng in Docker bereitstellen, dann den Befehl
docker run -d -p 8080:8080 searxng/searxng
verwenden, um es zu starten, und dannhttp://localhost:8080
verwenden, um darauf zuzugreifen. Sie können die URLhttp://localhost:8080
in das searxng-Tool in party eingeben, und dann kann searxng als Tool für LLM verwendet werden. - Großes Update!!! Jetzt können Sie jeden ComfyUI-Workflow in einen LLM-Toolknoten kapseln. Sie können Ihren LLM gleichzeitig mehrere ComfyUI-Workflows steuern lassen. Wenn Sie möchten, dass er einige Aufgaben erledigt, kann er basierend auf Ihrem Prompt den entsprechenden ComfyUI-Workflow auswählen, Ihre Aufgabe erledigen und Ihnen das Ergebnis zurückgeben. Beispiel-Workflow: comfyui_workflows_tool. Die spezifischen Schritte sind wie folgt:
- Verbinden Sie zunächst die Texteingabeschnittstelle des Workflows, den Sie als Tool kapseln möchten, mit dem "user_prompt"-Ausgang des "Workflow starten"-Knotens. Dies ist der Ort, an dem der Prompt übergeben wird, wenn das LLM das Tool aufruft.
- Verbinden Sie die Stellen, an denen Sie Text und Bilder ausgeben möchten, mit den entsprechenden Eingangspositionen des "Workflow beenden"-Knotens.
- Speichern Sie diesen Workflow als API (Sie müssen den Entwicklermodus in den Einstellungen aktivieren, um diese Schaltfläche zu sehen).
- Speichern Sie diesen Workflow im Ordner workflow_api dieses Projekts.
- Starten Sie ComfyUI neu und erstellen Sie einen einfachen LLM-Workflow, z.B.: start_with_LLM_api.
- Fügen Sie diesem LLM-Knoten einen "Workflow-Tool"-Knoten hinzu und verbinden Sie ihn mit dem Tool-Eingang des LLM-Knotens.
- Schreiben Sie im "Workflow-Tool"-Knoten den Namen der Workflow-Datei, die Sie aufrufen möchten, in das erste Eingabefeld, z.B.: draw.json. Sie können mehrere Workflow-Dateinamen schreiben. Schreiben Sie im zweiten Eingabefeld die Funktion jedes Workflows, damit das LLM versteht, wie diese Workflows verwendet werden.
- Führen Sie es aus, um zu sehen, wie das LLM Ihren gekapselten Workflow aufruft und Ihnen das Ergebnis zurückgibt. Wenn das Ergebnis ein Bild ist, verbinden Sie den "Bildvorschau"-Knoten mit dem Bildausgang des LLM-Knotens, um das generierte Bild anzuzeigen. Achtung! Diese Methode ruft ein neues ComfyUI auf Ihrem Port 8190 auf, bitte belegen Sie diesen Port nicht. Auf Windows- und Mac-Systemen wird ein neues Terminal geöffnet, bitte schließen Sie es nicht. Das Linux-System verwendet den screen-Prozess, um dies zu erreichen. Wenn Sie es nicht benötigen, schließen Sie diesen screen-Prozess, andernfalls wird Ihr Port immer belegt.
-
Bitte beziehen Sie sich auf die Anweisungen zur Verwendung der Knoten: 怎么使用节点
-
Bei Problemen mit dem Plugin oder anderen Fragen freuen wir uns über Ihren Beitritt zur QQ-Gruppe: 931057213 | discord:discord.
-
Für das Workflow-Tutorial siehe bitte: Workflow-Tutorial. Vielen Dank an HuangYuChuh für seinen Beitrag!
-
Konto für fortgeschrittene Workflow-Anwendungen: openart
-
Weitere Workflows finden Sie im Ordner workflow.
- Unterstützung aller API-Aufrufe im OpenAI-Format (in Kombination mit oneapi können nahezu alle LLM-APIs aufgerufen werden, ebenso alle Transfer-APIs). Die Auswahl der base_url erfolgt nach config.ini.example. Bisher getestete Modelle sind:
- openai (Perfekt kompatibel mit allen OpenAI-Modellen, einschließlich der 4o- und o1-Serien!)
- ollama (Empfohlen! Wenn Sie lokal aufrufen, wird dringend empfohlen, die ollama-Methode zu verwenden, um Ihr lokales Modell zu hosten!)
- Azure OpenAI
- llama.cpp (Empfohlen! Wenn Sie das lokale gguf-Formatmodell verwenden möchten, können Sie die API des llama.cpp-Projekts verwenden, um auf dieses Projekt zuzugreifen!)
- Grok
- Tongyi Qianwen/qwen
- Zhipu Qinyan/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Unterstützung von API-Aufrufen im Gemini-Format:
- Kompatibel mit den meisten lokalen Modellen in der Transformer-Bibliothek (der Modelltyp auf dem lokalen LLM-Modellkettenknoten wurde in LLM, VLM-GGUF und LLM-GGUF geändert, was dem direkten Laden von LLM-Modellen, dem Laden von VLM-Modellen und dem Laden von LLM-Modellen im GGUF-Format entspricht). Wenn Ihr VLM- oder GGUF-Format-LLM-Modell einen Fehler meldet, laden Sie bitte die neueste Version von llama-cpp-python von llama-cpp-python herunter. Derzeit getestete Modelle umfassen:
- ClosedCharacter/Peach-9B-8k-Roleplay (empfohlen! Rollenspiel-Modell)
- lllyasviel/omost-llama-3-8b-4bits (empfohlen! Reichhaltiges Prompt-Modell)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- xtuner/llava-llama-3-8b-v1_1-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Modells download:
- Baidu Cloud Adresse, Entnahmecode: qyhu
Verwenden Sie eine der folgenden Methoden zur Installation
- Suchen Sie im ComfyUI-Manager nach
comfyui_LLM_party
und installieren Sie es mit einem Klick. - Starten Sie ComfyUI neu.
- Navigieren Sie zum Unterordner
custom_nodes
im Hauptordner von ComfyUI. - Klonen Sie dieses Repository:
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Klicken Sie oben rechts auf
CODE
. - Klicken Sie auf
download zip
. - Entpacken Sie das heruntergeladene Zip-Archiv in den Unterordner
custom_nodes
des Hauptordners von ComfyUI.
- Navigieren Sie zum Projektordner von
comfyui_LLM_party
. - Geben Sie im Terminal
pip install -r requirements.txt
ein, um die benötigten Drittanbieterbibliotheken in der ComfyUI-Umgebung zu installieren. Bitte beachten Sie, ob Sie in der ComfyUI-Umgebung installieren, und achten Sie aufpip
-Fehlermeldungen im Terminal. - Wenn Sie den ComfyUI-Launcher verwenden, müssen Sie im Terminal
Pfad im Launcher-Konfigurationsdatei\python_embeded\python.exe -m pip install -r requirements.txt
eingeben, um die Installation durchzuführen. Der Ordnerpython_embeded
befindet sich in der Regel auf derselben Ebene wie IhrComfyUI
-Ordner. - Wenn Sie auf einige Umgebungsprobleme stoßen, können Sie versuchen, die Abhängigkeiten aus
requirements_fixed.txt
zu verwenden.
- Die Sprache kann in der Datei
config.ini
konfiguriert werden, derzeit sind nur Chinesisch (zh_CN) und Englisch (en_US) verfügbar, standardmäßig wird die Sprache deines Systems verwendet. - Du kannst eine der folgenden Methoden verwenden, um den APIKEY zu konfigurieren.
- Öffne die Datei
config.ini
im Projektordner voncomfyui_LLM_party
. - Gib in der
config.ini
deinenopenai_api_key
undbase_url
ein. - Wenn du das Ollama-Modell verwendest, trage in
base_url
http://127.0.0.1:11434/v1/
ein, inopenai_api_key
schreibeollama
und inmodel_name
gib deinen Modellnamen ein, z. B.: llama3. - Wenn du Google Search oder Bing Search Tools verwenden möchtest, gib in der
config.ini
deinengoogle_api_key
,cse_id
oderbing_api_key
ein. - Wenn du Bildeingaben für LLM verwenden möchtest, wird empfohlen, den Bilddienst imgBB zu nutzen. Trage in der
config.ini
deinenimgbb_api
ein. - Jedes Modell kann in der Datei
config.ini
separat konfiguriert werden. Du kannst die Dateiconfig.ini.example
als Referenz verwenden. Nachdem du alles konfiguriert hast, musst du nur nochmodel_name
im Knoten eingeben.
- Öffne die Benutzeroberfläche von ComfyUI.
- Erstelle einen neuen LLM-Knoten und gib direkt in den Knoten deinen
openai_api_key
undbase_url
ein. - Wenn du das Ollama-Modell verwendest, benutze den LLM_api-Knoten, trage in
base_url
http://127.0.0.1:11434/v1/
ein, inapi_key
schreibeollama
und inmodel_name
gib deinen Modellnamen ein, z. B.: llama3. - Wenn du Bildeingaben für LLM verwenden möchtest, wird empfohlen, den Bilddienst imgBB zu nutzen. Gib in dem Knoten deinen
imgbb_api_key
ein.
-
Sie können im ComfyUI-Interface mit der rechten Maustaste klicken und im Kontextmenü
llm
auswählen, um den Knoten dieses Projekts zu finden. Wie man Knoten verwendet -
Unterstützung für API-Integration oder lokale große Modelle. Modularer Ansatz zur Implementierung der Funktion zur Werkzeuganwendung. Bitte geben Sie beim Ausfüllen von base_url eine URL ein, die mit
/v1/
endet. Sie können ollama verwenden, um Ihre Modelle zu verwalten, und dann in base_urlhttp://127.0.0.1:11434/v1/
eingeben, in api_key geben Sie ollama ein und in model_name den Namen Ihres Modells, z. B.: llama3.- API-Integrationsbeispiel-Workflow: start_with_LLM_api
- Lokales Modellintegrationsbeispiel-Workflow: start_with_LLM_local
- Ollama-Integrationsbeispiel-Workflow: ollama
-
Integration eines lokalen Wissensspeichers, Unterstützung für RAG. Beispiel-Workflow: Wissensspeicher_RAG_Suche.json
-
Möglichkeit zur Nutzung eines Code-Interpreters
-
Möglichkeit zur Online-Abfrage, Unterstützung für Google-Suche. Beispiel-Workflow: Filmabfrage-Workflow
-
Möglichkeit, Bedingungen im ComfyUI zu implementieren, um Benutzerfragen zu kategorisieren und gezielt zu beantworten. Beispiel-Workflow: Intelligent Kundenservice
-
Unterstützung von Rückkopplungslinks zwischen großen Modellen, um Debatten zwischen zwei großen Modellen zu ermöglichen. Beispiel-Workflow: Trolley-Problem-Debatte
-
Unterstützung für die Anpassung beliebiger Persönlichkeitsmasken, mit der Möglichkeit, Vorlagen für Eingabeaufforderungen zu erstellen.
-
Unterstützung für eine Vielzahl von Werkzeuganwendungen, einschließlich Wetterabfrage, Zeitabfrage, Wissensspeicher, Codeausführung, Online-Suche und gezielte Suche auf einer einzelnen Webseite.
-
Unterstützung der Nutzung von LLM als Werkzeugknoten. Beispiel-Workflow: LLM-verschachtelung
-
Unterstützung für die schnelle Entwicklung eigener Webanwendungen über API+streamlit.
-
Einführung eines gefährlichen universellen Interpreternodes, der es großen Modellen ermöglicht, beliebige Aufgaben zu erledigen.
-
Es wird empfohlen, den Knoten "show_text" im Funktionsunterverzeichnis des Kontextmenüs zu verwenden, um die Ausgabe des LLM-Knotens anzuzeigen.
-
Unterstützung der visuellen Funktionen von GPT-4O! Beispiel-Workflow: GPT-4o
-
Ein neuer Workflow-Transmitter wurde hinzugefügt, der es ermöglicht, andere Workflows innerhalb Ihres Workflows aufzurufen! Beispiel-Workflow: Aufruf eines anderen Workflows
-
Anpassung an alle Modelle mit ähnlichen OpenAI-Schnittstellen, wie z.B.: Tongyi Qianwen/qwen, Zhiyu Qingyan/GLM, Deepseek, Kimi/Moonshot. Bitte fügen Sie die base_url, api_key und model_name dieser Modelle in den LLM-Knoten ein, um sie aufzurufen.
-
Ein LVM-Loader wurde hinzugefügt, der es ermöglicht, LVM-Modelle lokal aufzurufen. Unterstützt wird das Modell llava-llama-3-8b-v1_1-gguf; andere LVM-Modelle im GGUF-Format sollten theoretisch ebenfalls funktionieren. Beispiel-Workflow finden Sie hier: start_with_LVM.json.
-
Eine Datei
fastapi.py
wurde erstellt. Wenn Sie sie direkt ausführen, erhalten Sie eine OpenAI-Schnittstelle unterhttp://127.0.0.1:8817/v1/
, sodass jede Anwendung, die GPT aufrufen kann, Ihr ComfyUI-Workflow nutzen kann! Eine detaillierte Anleitung zur Vorgehensweise wird in einem kommenden Tutorial bereitgestellt. -
Der LLM-Loader und die LLM-Kette wurden getrennt, sodass das Laden des Modells und die Modellspezifikation voneinander getrennt sind. Dadurch kann das Modell zwischen verschiedenen LLM-Knoten geteilt werden!
-
Unterstützung für macOS und MPS-Geräte wurde bereits implementiert! Vielen Dank an bigcat88 für diesen Beitrag!
-
Es ist nun möglich, ein eigenes interaktives Erzählspiel zu erstellen, das je nach Benutzerwahl zu unterschiedlichen Enden führt! Beispiel-Workflow: Interaktive Erzählung
-
Anpassung an die Whisper- und TTS-Funktionen von OpenAI, die Sprachinput und -output ermöglichen. Beispiel-Workflow: Sprachinput + Sprachausgabe
-
Kompatibel mit Omost!!! Bitte laden Sie omost-llama-3-8b-4bits herunter und erleben Sie es sofort! Beispiel-Workflow: start_with_OMOST
-
Hinzugefügt wurden LLM-Tools zum Senden von Nachrichten an WeChat, DingTalk und Feishu sowie externe Funktionen, die aufgerufen werden können.
-
Ein Text-Iterator wurde hinzugefügt, der jeweils nur einen Teil der Zeichen ausgibt. Dieser teilt den Text sicher anhand des Zeilenumbruchs und der Chunk-Größe, ohne ihn in der Mitte zu zerschneiden. chunk_overlap gibt an, wie viele Zeichen der geteilte Text überlappt. Dadurch können extrem lange Texte in großen Mengen eingegeben werden; man muss nur bedenkenlos klicken oder die Schleifen-Ausführung in ComfyUI aktivieren, um die Ausführung automatisch abzuschließen. Vergessen Sie nicht, die is_locked-Eigenschaft zu aktivieren, damit der Workflow am Ende der Eingabe automatisch gesperrt wird und nicht weiter ausgeführt wird. Beispiel-Workflow: Text-Iterations-Eingabe
-
Im lokalen LLM-Loader und im lokalen llava-Loader wurde das Attribut model name hinzugefügt. Ist es leer, wird der lokale Pfad aus dem Knoten verwendet. Ist es nicht leer, wird der von Ihnen in
config.ini
angegebene Pfad verwendet. Ist es nicht leer und nicht inconfig.ini
, wird das Modell von Hugging Face heruntergeladen oder aus dem Hugging Face-Modellspeicherverzeichnis geladen. Wenn Sie ein Modell von Hugging Face herunterladen möchten, füllen Sie das Attribut model name im FormatTHUDM/glm-4-9b-chat
aus. Hinweis! Modelle, die auf diese Weise geladen werden, müssen mit der Transformer-Bibliothek kompatibel sein. -
Es wurden Knoten zum Parsen von JSON-Dateien und zum Abrufen von JSON-Werten hinzugefügt, mit denen Sie den Wert eines bestimmten Schlüssels aus einer Datei oder einem Text abrufen können. Vielen Dank an guobalove für den Beitrag!
-
Der Code für den Aufruf von Werkzeugen wurde verbessert, sodass jetzt auch LLMs ohne die Funktion des Werkzeugaufrufs das Attribut is_tools_in_sys_prompt aktivieren können (lokale LLMs müssen standardmäßig nicht aktiviert werden und passen sich automatisch an). Nach der Aktivierung werden die Informationen zu den Werkzeugen in die Systemaufforderung aufgenommen, sodass das LLM auf die Werkzeuge zugreifen kann. Relevante Arbeiten zur Funktionsweise: Achieving Tool Calling Functionality in LLMs Using Only Prompt Engineering Without Fine-Tuning
-
Ein neues Verzeichnis namens custom_tool wurde erstellt, um den Code benutzerdefinierter Werkzeuge zu speichern. Sie können den Code im Verzeichnis custom_tool als Referenz verwenden und Ihren benutzerdefinierten Werkzeugcode in das custom_tool-Verzeichnis einfügen, um ihn im LLM aufzurufen.
-
Ein neues Werkzeug für Wissensgraphen wurde hinzugefügt, das eine perfekte Interaktion zwischen dem LLM und dem Wissensgraphen ermöglicht. Das LLM kann den Wissensgraphen basierend auf Ihren Eingaben ändern und aus dem Wissensgraphen ableiten, um die benötigten Antworten zu erhalten. Beispiel-Workflow: graphRAG_neo4j
-
Eine Funktion für Persönlichkeits-AI wurde hinzugefügt, mit der Sie Ihre eigene Freundinnen- oder Freund-AI ohne Programmierkenntnisse entwickeln können. Unbegrenzte Gespräche, dauerhaftes Gedächtnis und stabile Charakterdarstellung sind möglich. Beispiel-Workflow: 麦洛薇人格AI
-
Mit diesem LLM-Werkzeuggenerator können Sie automatisch LLM-Werkzeuge erstellen. Speichern Sie den generierten Werkzeugcode in einer Python-Datei und kopieren Sie den Code in das custom_tool-Verzeichnis, um einen neuen Knoten zu schaffen. Beispiel-Workflow: LLM工具生成器.
-
Die Unterstützung für die DuckDuckGo-Suche wurde hinzugefügt, jedoch mit erheblichen Einschränkungen; es scheint, dass nur englische Schlüsselwörter eingegeben werden können und diese Schlüsselwörter nicht mehrere Konzepte enthalten dürfen. Der Vorteil liegt darin, dass es keine Einschränkungen durch API-Schlüssel gibt.
-
Es wurde die Funktionalität zur getrennten Abfrage mehrerer Wissensdatenbanken unterstützt, sodass in der Eingabeaufforderung klar angegeben werden kann, welche Wissensdatenbank zur Beantwortung von Fragen verwendet wird. Beispiel-Workflow: 多知识库分别调用.
-
Es wird unterstützt, dass das LLM zusätzliche Parameter wie json out und andere erweiterte Parameter erhält. Beispiel-Workflow: LLM输入额外参数. 用json_out分离提示词.
-
Neue Funktion zur Anbindung des Agenten an Discord hinzugefügt. (Noch in der Testphase)
-
Neue Funktion zur Anbindung des Agenten an Feishu hinzugefügt. Ein herzlicher Dank gilt guobalove für seinen Beitrag! Siehe Arbeitsablauf Feishu Bot.
-
Neuer universeller API-Aufrufknoten sowie zahlreiche Hilfsknoten hinzugefügt, die zur Konstruktion von Anfragekörpern und zum Abrufen von Informationen aus den Antworten dienen.
-
Neuer Knoten zum Leeren des Modells hinzugefügt, der es ermöglicht, das LLM an beliebiger Stelle aus dem Grafikspeicher zu entladen!
-
Der Knoten chatTTS wurde hinzugefügt, ein herzlicher Dank gilt guobalove für seinen Beitrag! Der Parameter
model_path
kann leer sein! Es wird empfohlen, das Modell im HF-Modus zu laden, das Modell wird automatisch von Hugging Face heruntergeladen, eine manuelle Download ist nicht erforderlich; bei Verwendung des local-Loads bitte die Ordnerasset
undconfig
des Modells ins Stammverzeichnis legen. Baidu Cloud Adresse, Entschlüsselungscode: qyhu; bei Verwendung descustom
-Modus bitte die Ordnerasset
undconfig
des Modells untermodel_path
ablegen. -
Aktualisierte eine Reihe von Konvertierungsknoten: markdown zu HTML, svg zu Bild, HTML zu Bild, mermaid zu Bild, markdown zu Excel.
-
Kompatibel mit dem llama3.2 vision Modell, unterstützt mehrstufige Dialoge, visuelle Funktionen. Modelladresse: meta-llama/Llama-3.2-11B-Vision-Instruct. Beispiel-Workflow: llama3.2_vision.
-
Angepasstes GOT-OCR2, unterstützt formatierte Ausgaberesultate, unterstützt die feine Texterkennung mit Positionsboxen und Farben. Modelladresse: GOT-OCR2. Beispiel-Workflow konvertiert einen Screenshot einer Webseite in HTML-Code und öffnet dann den Browser, um diese Webseite anzuzeigen: img2web.
-
Die lokalen LLM-Ladernoden wurden erheblich angepasst, sodass Sie den Modelltyp nicht mehr selbst auswählen müssen. Der llava-Ladernoden und der GGUF-Ladernoden wurden erneut hinzugefügt. Der Modelltyp auf dem lokalen LLM-Modellkettenknoten wurde in LLM, VLM-GGUF und LLM-GGUF geändert, was dem direkten Laden von LLM-Modellen, dem Laden von VLM-Modellen und dem Laden von LLM-Modellen im GGUF-Format entspricht. VLM-Modelle und LLM-Modelle im GGUF-Format werden jetzt wieder unterstützt. Lokale Aufrufe können jetzt mit mehr Modellen kompatibel sein! Beispiel-Workflows: LLM_local, llava, GGUF
-
EasyOCR-Knoten hinzugefügt, um Text und Positionen in Bildern zu erkennen. Es kann entsprechende Masken erstellen und eine JSON-Zeichenfolge zur Ansicht für LLM zurückgeben. Es gibt Standard- und Premium-Versionen zur Auswahl!
-
Auf der comfyui LLM-Party wurde das Erdbeersystem des chatgpt-o1-Serienmodells reproduziert, unter Bezugnahme auf die Eingabeaufforderungen von Llamaberry. Beispiel-Workflow: Erdbeersystem im Vergleich zu o1.
-
Ein neuer GPT-sovits-Knoten wurde hinzugefügt, der es Ihnen ermöglicht, das GPT-sovits-Modell aufzurufen, um Text basierend auf Ihrem Referenzaudio in Sprache umzuwandeln. Sie können auch den Pfad Ihres feinabgestimmten Modells angeben (wenn nicht angegeben, wird das Basismodell für die Inferenz verwendet), um jede gewünschte Stimme zu erhalten. Um es zu verwenden, müssen Sie das GPT-sovits-Projekt und das entsprechende Basismodell lokal herunterladen und dann den API-Dienst mit
runtime\python.exe api_v2.py
im GPT-sovits-Projektordner starten. Außerdem wurde der chatTTS-Knoten nach comfyui LLM mafia verschoben. Der Grund dafür ist, dass chatTTS viele Abhängigkeiten hat und seine Lizenz auf PyPi CC BY-NC 4.0 ist, was eine nicht-kommerzielle Lizenz ist. Obwohl das chatTTS-GitHub-Projekt unter der AGPL-Lizenz steht, haben wir den chatTTS-Knoten zu comfyui LLM mafia verschoben, um unnötige Probleme zu vermeiden. Wir hoffen, dass jeder das versteht! -
Unterstützt jetzt das neueste Modell von OpenAI, die o1-Serie!
-
Ein lokales Dateikontrollwerkzeug hinzugefügt, das es dem LLM ermöglicht, Dateien im angegebenen Ordner zu steuern, z. B. lesen, schreiben, anhängen, löschen, umbenennen, verschieben und kopieren.Aufgrund der potenziellen Gefahr dieses Knotens ist er in comfyui LLM mafia enthalten.
-
Neue SQL-Tools ermöglichen es LLM, SQL-Datenbanken abzufragen.
-
Die mehrsprachige Version der README wurde aktualisiert. Workflow zum Übersetzen des README-Dokuments: translate_readme
-
Es wurden vier Iterator-Knoten aktualisiert (Text-Iterator, Bild-Iterator, Tabellen-Iterator, JSON-Iterator). Die Iterator-Modi umfassen: sequenziell, zufällig und unendlich. Sequenziell gibt die Werte der Reihe nach aus, bis die Indexgrenze überschritten wird, woraufhin der Prozess automatisch gestoppt und der Indexwert auf 0 zurückgesetzt wird. Zufällig wählt einen beliebigen Index aus, während unendlich eine endlose Schleife von Ausgaben erzeugt.
-
Ein neuer Gemini API-Loader-Knoten wurde hinzugefügt, der jetzt mit der offiziellen Gemini-API kompatibel ist! Sollten Sie sich in einem nationalen Netzwerkumfeld befinden und Probleme mit der regionalen Einschränkung der API auftreten, wechseln Sie bitte den Knoten auf die USA und verwenden Sie den TUN-Modus. Da es bei der Verwendung von Gemini zu einem Fehlercode 500 kommt, wenn die zurückgegebenen Parameter chinesische Zeichen enthalten, sind einige Werkzeugknoten möglicherweise nicht verfügbar. Beispiel-Workflow: start_with_gemini
-
Ein neuer Lore Book-Knoten wurde hinzugefügt, um bei der Interaktion mit dem LLM Ihre Hintergrundgeschichte einzufügen. Beispiel-Workflow: lorebook
-
Ein neuer FLUX-Prompt-Generator-Maskenknoten wurde hinzugefügt, der Prompts in verschiedenen Stilen wie Hearthstone-Karten, Yu-Gi-Oh-Karten, Plakate und Comics generieren kann, um das FLUX-Modell direkt zu nutzen. Referenz-Workflow: FLUX提示词
- Mehr Modellanpassungen;
- Mehr Möglichkeiten zum Aufbau von Agenten;
- Mehr Automatisierungsfunktionen;
- Mehr Funktionen zur Verwaltung von Wissensdatenbanken;
- Mehr Werkzeuge, mehr Personas.
Dieses Open-Source-Projekt und seine Inhalte (im Folgenden „Projekt“) dienen nur zu Informationszwecken und bedeuten keine ausdrückliche oder stillschweigende Garantie. Die Projektbeitragsleistenden übernehmen keine Verantwortung für die Vollständigkeit, Genauigkeit, Zuverlässigkeit oder Anwendbarkeit des Projekts. Jegliche Handlungen, die auf den Inhalten des Projekts basieren, erfolgen auf eigenes Risiko. Unter keinen Umständen haften die Projektbeitragsleistenden für indirekte, spezielle oder zufällige Verluste oder Schäden, die aus der Nutzung der Inhalte des Projekts resultieren.
Einige Knoten in diesem Projekt basieren auf den folgenden Projekten. Wir danken ihnen für ihren Beitrag zur Open-Source-Community!
Wenn es Probleme mit dem Plugin gibt oder Sie andere Fragen haben, sind Sie herzlich eingeladen, unserer Gemeinschaft beizutreten.
- QQ-Gruppe:
931057213
-
WeChat-Gruppe:
Choo-Yong
(Fügen Sie den kleinen Assistenten zu WeChat hinzu, um der Gruppe beizutreten) -
Discord:discord链接
- Wenn Sie die neuesten Funktionen dieses Projekts kontinuierlich verfolgen möchten, heißen wir Sie herzlich willkommen, unseren Bilibili-Account zu abonnieren: 派对主持BB机
- Der OpenArt-Account wird kontinuierlich die nützlichsten Party-Workflows aktualisieren: openart
Wenn meine Arbeit Ihnen einen Mehrwert bietet, ziehen Sie bitte in Betracht, mir einen Kaffee auszugeben! Ihre Unterstützung belebt nicht nur das Projekt, sondern erwärmt auch das Herz der Kreatoren.☕💖 Jede Tasse zählt!