Comfyui_llm_party стремится на основе comfyui создать полностью укомплектованную библиотеку узлов для построения рабочих потоков LLM, используя исключительно простой интерфейс. Это позволит пользователям быстрее и удобнее создавать свои рабочие потоки LLM и интегрировать их в собственные графические рабочие процессы.
EN.mp4
ComfyUI LLM Party предлагает от самых основ LLM, включая многопрофильное использование инструментов, быструю настройку индивидуального AI-ассистента, до внедрения в отрасль векторных представлений слов (RAG) и GraphRAG для локального управления знаниями в отрасли. От простых потоков агентов до построения сложных моделей взаимодействия между агентами, включая радиальные и кольцевые модели взаимодействия; от необходимости индивидуальных пользователей интегрировать свои социальные приложения (QQ, Feishu, Discord), до комплексного рабочего процесса для стримеров, который объединяет LLM, TTS и ComfyUI; от простого первого опыта работы с LLM, необходимого обычным студентам, до интерфейсов настройки параметров, часто используемых исследователями и адаптации моделей. Все это вы сможете найти в ComfyUI LLM Party.
- Перетащите следующие рабочие процессы в ваш comfyui, затем используйте comfyui-Manager для установки недостающих узлов.
- Используйте API для вызова LLM: start_with_LLM_api
- Управляйте локальным LLM с помощью ollama: start_with_Ollama
- Используйте локальный LLM в распределенном формате: start_with_LLM_local
- Используйте локальный LLM в формате GGUF: start_with_LLM_GGUF
- Используйте локальный VLM в распределенном формате: start_with_VLM_local (тестирование, в настоящее время поддерживает только Llama-3.2-Vision-Instruct)
- Используйте локальный VLM в формате GGUF: start_with_VLM_GGUF
- Если вы используете API, заполните
base_url
(это может быть промежуточный API, убедитесь, что он заканчивается на/v1/
), например:https://api.openai.com/v1/
иapi_key
в узле загрузчика API LLM. - Если вы используете ollama, включите опцию
is_ollama
в узле загрузчика API LLM, не нужно заполнятьbase_url
иapi_key
. - Если вы используете локальную модель, заполните путь к вашей модели в узле загрузчика локальной модели, например:
E:\model\Llama-3.2-1B-Instruct
. Вы также можете заполнить идентификатор репозитория модели Huggingface в узле загрузчика локальной модели, например:lllyasviel/omost-llama-3-8b-4bits
. - Из-за высокого порога использования этого проекта, даже если вы выбрали быстрый старт, я надеюсь, что вы терпеливо прочитаете домашнюю страницу проекта.
- Создал ветвь от chatgpt-on-wechat, создав новый репозиторий party-on-wechat. Методы установки и использования совпадают с оригинальным проектом, не требуется дополнительная настройка, достаточно запустить FastAPI для party. По умолчанию используется рабочий процесс wx_api и поддерживается вывод изображений. Проект будет постепенно обновляться для обеспечения плавного опыта использования party в WeChat.
- Добавлен узел маски In-Context-LoRA, используемый для создания последовательных In-Context-LoRA подсказок.
- Мы добавили фронтенд компонент, функции которого располагаются слева направо следующим образом:
- Сохраняет ваш ключ API и Base URL в файл
config.ini
. Когда вы используете функциюfix node
для загрузчика API LLM, он автоматически читает измененные вами ключ API и Base URL из файлаconfig.ini
. - Запускает сервис FastAPI, который может использоваться для вызова ваших рабочих процессов ComfyUI. Если вы запустите его напрямую, вы получите интерфейс OpenAI на
http://127.0.0.1:8817/v1/
. Вам нужно подключить начало и конец вашего рабочего процесса к "началу рабочего процесса" и "концу рабочего процесса", а затем сохранить его в формате API в папкеworkflow_api
. Затем в любом фронтенде, который может вызывать интерфейс OpenAI, вы должны ввестиmodel name=<название вашего рабочего процесса без расширения .json>
,Base URL=http://127.0.0.1:8817/v1/
, ключ API можно заполнить любым значением. - Запускает приложение Streamlit, процесс сохранения рабочего процесса аналогичен вышеописанному. Вы можете выбрать сохраненный рабочий процесс в разделе "настройки" приложения Streamlit и взаимодействовать с агентом вашего рабочего процесса в разделе "чат".
- "О нас", где представлено описание проекта.
- Узел автоматического получения списка имен моделей был удален и заменен простым узлом загрузчика API LLM, который автоматически получает список имен моделей из конфигурации в вашем файле config.ini. Вам нужно просто выбрать имя, чтобы загрузить модель. Кроме того, были обновлены простые узлы загрузчика LLM, LLM-GGUF, VLM, VLM-GGUF и LLM lora. Все они автоматически читают пути к моделям из папки model в папке party, что упрощает загрузку различных локальных моделей.
- Теперь LLM могут динамически загружать lora, как SD и FLUX. Вы можете объединить несколько lora, чтобы загрузить больше lora на тот же LLM. Пример рабочего процесса: start_with_LLM_LORA.
- Добавлен инструмент searxng, который может агрегировать поиск по всему интернету. Perplexica также зависит от этого агрегированного поискового инструмента, что означает, что вы можете установить Perplexica на вечеринке. Вы можете развернуть публичный образ searxng/searxng в Docker, затем использовать команду
docker run -d -p 8080:8080 searxng/searxng
для его запуска, и затем использоватьhttp://localhost:8080
для его доступа. Вы можете ввести URLhttp://localhost:8080
в инструмент searxng в party, и тогда searxng будет использоваться как один из инструментов LLM. - Масштабное обновление!!! Теперь вы можете инкапсулировать любой рабочий процесс ComfyUI в узел инструмента LLM. Вы можете заставить ваш LLM одновременно управлять несколькими рабочими процессами ComfyUI. Когда вы хотите, чтобы он выполнил некоторые задачи, он может выбрать соответствующий рабочий процесс ComfyUI на основе вашего запроса, выполнить вашу задачу и вернуть вам результат. Пример рабочего процесса: comfyui_workflows_tool. Конкретные шаги следующие:
- Сначала подключите интерфейс ввода текста рабочего процесса, который вы хотите инкапсулировать как инструмент, к выходу "user_prompt" узла "Начать рабочий процесс". Это место, куда передается запрос при вызове инструмента LLM.
- Подключите места, где вы хотите выводить текст и изображения, к соответствующим входным позициям узла "Завершить рабочий процесс".
- Сохраните этот рабочий процесс как API (вам нужно включить режим разработчика в настройках, чтобы увидеть эту кнопку).
- Сохраните этот рабочий процесс в папку workflow_api этого проекта.
- Перезапустите ComfyUI и создайте простой рабочий процесс LLM, например: start_with_LLM_api.
- Добавьте узел "Инструмент рабочего процесса" к этому узлу LLM и подключите его к входу инструмента узла LLM.
- В узле "Инструмент рабочего процесса" напишите имя файла рабочего процесса, который вы хотите вызвать, в первое поле ввода, например: draw.json. Вы можете написать несколько имен файлов рабочего процесса. Во втором поле ввода напишите функцию каждого рабочего процесса, чтобы LLM понял, как использовать эти рабочие процессы.
- Запустите его, чтобы увидеть, как LLM вызывает ваш инкапсулированный рабочий процесс и возвращает вам результат. Если возвращается изображение, подключите узел "Предварительный просмотр изображения" к выходу изображения узла LLM, чтобы просмотреть сгенерированное изображение. Внимание! Этот метод вызывает новый ComfyUI на вашем порту 8190, пожалуйста, не занимайте этот порт. На системах Windows и Mac будет открыт новый терминал, пожалуйста, не закрывайте его. В системе Linux используется процесс screen для достижения этого, когда вам не нужно его использовать, закройте этот процесс screen, иначе он всегда будет занимать ваш порт.
-
Пожалуйста, обратитесь к инструкции по использованию узлов: 怎么使用节点
-
Если у вас возникли проблемы с плагином или у вас есть другие вопросы, присоединяйтесь к нашей группе QQ: 931057213 |discord:discord.
-
Пожалуйста, обратитесь к учебнику по рабочим процессам, благодарим за вклад HuangYuChuh!
-
Учётная запись для высокоуровневых игровых рабочих процессов: openart
-
Дополнительные рабочие процессы можно найти в папке workflow.
- Поддержка всех API-вызовов формата OpenAI (в сочетании с oneapi можно вызывать практически все API LLM, также поддерживаются все промежуточные API). Выбор base_url можно найти в config.ini.example, на данный момент протестированы следующие:
- openai (Идеально совместим со всеми моделями OpenAI, включая серии 4o и o1!)
- ollama (Рекомендуется! Если вы вызываете локально, настоятельно рекомендуется использовать метод ollama для размещения вашей локальной модели!)
- Azure OpenAI
- llama.cpp (Рекомендуется! Если вы хотите использовать локальную модель формата gguf, вы можете использовать API проекта llama.cpp для доступа к этому проекту!)
- Grok
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Поддержка API-вызовов формата Gemini:
- Совместим с большинством локальных моделей в библиотеке transformer (тип модели на узле цепочки локальных моделей LLM изменен на LLM, VLM-GGUF и LLM-GGUF, что соответствует прямой загрузке моделей LLM, загрузке моделей VLM и загрузке моделей LLM в формате GGUF). Если ваша модель LLM в формате VLM или GGUF выдает ошибку, пожалуйста, загрузите последнюю версию llama-cpp-python с llama-cpp-python. В настоящее время протестированные модели включают:
- ClosedCharacter/Peach-9B-8k-Roleplay (рекомендуется! Модель для ролевых игр)
- lllyasviel/omost-llama-3-8b-4bits (рекомендуется! Модель с богатым набором подсказок)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- xtuner/llava-llama-3-8b-v1_1-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Загрузка моделей:
- Ссылка на Baidu Cloud, код для извлечения: qyhu
Используйте один из следующих методов для установки
- В менеджере comfyui найдите
comfyui_LLM_party
и установите одним нажатием - Перезагрузите comfyui
- Перейдите в подпапку
custom_nodes
в корневой папке ComfyUI. - Используйте команду для клонирования этого репозитория:
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Нажмите на кнопку
CODE
в правом верхнем углу. - Нажмите
download zip
. - Распакуйте загруженный архив в подпапку
custom_nodes
в корневой папке ComfyUI.
- Перейдите в папку проекта
comfyui_LLM_party
. - В терминале введите команду
pip install -r requirements.txt
, чтобы установить необходимые сторонние библиотеки для проекта в окружение comfyui. Обратите внимание на то, что вы находитесь в окружении comfyui, и следите за ошибкамиpip
в терминале. - Если вы используете запускатор comfyui, вам нужно ввести в терминале команду
путь к запускатору\python_embeded\python.exe -m pip install -r requirements.txt
для установки. Папкаpython_embeded
обычно находится на одном уровне с папкойComfyUI
. - Если у вас возникли проблемы с конфигурацией окружения, вы можете попробовать использовать зависимости из файла
requirements_fixed.txt
.
- Язык можно настроить в файле
config.ini
, в настоящее время доступны только китайский (zh_CN) и английский (en_US), по умолчанию используется язык вашей системы. - Для настройки APIKEY можно использовать один из следующих методов.
- Откройте файл
config.ini
, находящийся в папке проектаcomfyui_LLM_party
. - Введите ваш
openai_api_key
иbase_url
вconfig.ini
. - Если вы используете модель ollama, введите
http://127.0.0.1:11434/v1/
вbase_url
,ollama
вopenai_api_key
, а вmodel_name
укажите название вашей модели, например: llama3. - Если вы хотите использовать инструменты поиска Google или Bing, введите ваш
google_api_key
,cse_id
илиbing_api_key
вconfig.ini
. - Если вы хотите использовать ввод изображений в LLM, рекомендуется использовать хостинг изображений imgbb, введите ваш
imgbb_api
вconfig.ini
. - Каждая модель может быть настроена отдельно в файле
config.ini
, вы можете обратиться к файлуconfig.ini.example
для справки. После настройки вам нужно просто ввестиmodel_name
на узле.
- Откройте интерфейс comfyui.
- Создайте узел большого языкового моделирования (LLM), введите ваш
openai_api_key
иbase_url
непосредственно в узле. - Если вы используете модель ollama, используйте узел LLM_api, введите
http://127.0.0.1:11434/v1/
вbase_url
,ollama
вapi_key
, а вmodel_name
укажите название вашей модели, например: llama3. - Если вы хотите использовать ввод изображений в LLM, рекомендуется использовать хостинг изображений imgbb, введите ваш
imgbb_api_key
на узле.
- Вы можете щелкнуть правой кнопкой мыши в интерфейсе comfyui и выбрать в контекстном меню
llm
, чтобы найти узел данного проекта. Как использовать узлы - Поддерживается подключение API или локальной большой модели. Модульная реализация функции вызова инструментов. При заполнении base_url укажите адрес, заканчивающийся на
/v1/
. Вы можете использовать ollama для управления вашими моделями, затем в base_url введитеhttp://127.0.0.1:11434/v1/
, в api_key укажите ollama, а в model_name - название вашей модели, например: llama3.
- Пример рабочего процесса для API подключения: start_with_LLM_api
- Пример рабочего процесса для локальной модели: start_with_LLM_local
- Пример рабочего процесса для подключения ollama: ollama
- Подключение локальной базы знаний с поддержкой RAG. Пример рабочего процесса: Поиск в базе знаний RAG.json
- Возможность вызова интерпретатора кода.
- Возможность подключения к сети для запросов, поддерживается поиск в Google. Пример рабочего процесса: Рабочий процесс поиска фильмов
- Возможность реализации условных операторов в comfyui, позволяющая классифицировать вопросы пользователей и отвечать на них целенаправленно. Пример рабочего процесса: Умный сервис поддержки
- Поддержка связи между большими моделями, позволяющая организовать дебаты между двумя большими моделями. Пример рабочего процесса: Дебаты по проблеме трамваев
- Поддержка подключения любых личностей, возможность настройки шаблонов подсказок.
- Поддержка вызова различных инструментов, в настоящее время разработаны функции для проверки погоды, времени, базы знаний, выполнения кода, сетевого поиска и поиска по отдельным веб-страницам.
- Поддержка использования LLM в качестве узла инструмента. Пример рабочего процесса: LLM матрешка
- Поддержка быстрого разработки собственного веб-приложения с помощью API+streamlit.
- Добавлен опасный универсальный интерпретатор узлов, позволяющий большой модели выполнять любые задачи.
- Рекомендуется использовать узел отображения текста (show_text) в подкаталоге функций (function) контекстного меню в качестве вывода узла LLM.
- Поддержка визуальных функций GPT-4O! Пример рабочего процесса: GPT-4o
- Добавлен маршрутизатор рабочих процессов, который позволяет вашему рабочему процессу вызывать другие рабочие процессы! Пример рабочего процесса: Вызов другого рабочего процесса
- Адаптация всех моделей с интерфейсом, аналогичным openai, таких как: 通义千问/qwen, 智谱清言/GLM, deepseek, kimi/moonshot. Пожалуйста, заполните base_url, api_key и model_name этих моделей в узле LLM для их вызова.
- Добавлен загрузчик LVM, теперь можно локально вызывать модели LVM, поддерживающий llava-llama-3-8b-v1_1-gguf модель, другие модели LVM в формате GGUF теоретически также должны работать. Пример рабочего процесса здесь: start_with_LVM.json.
- Написан файл
fastapi.py
, если вы запустите его, вы получите интерфейс openai наhttp://127.0.0.1:8817/v1/
, любое приложение, которое может вызывать GPT, сможет вызвать ваш рабочий процесс comfyui! Подробности о том, как это сделать, я подготовлю в следующем учебном пособии~ - Разделены загрузчик LLM и цепочка LLM, модель загрузки и настройки модели теперь разделены, что позволяет делиться моделями между различными узлами LLM!
- В настоящее время поддерживаются устройства macOS и mps! Благодарим bigcat88 за этот вклад!
- Теперь можно создать свою интерактивную игру-роман, которая будет вести к различным концовкам в зависимости от выбора пользователя! Пример рабочего процесса: Интерактивный роман
- Адаптированы функции whisper и tts от openai, что позволяет реализовать ввод и вывод голоса. Пример рабочего процесса: Ввод голоса + вывод голоса
- Совместимость с Omost достигнута!!! Пожалуйста, скачайте omost-llama-3-8b-4bits и начните использовать прямо сейчас! Пример рабочего процесса: start_with_OMOST
- Добавлены инструменты LLM для отправки сообщений в корпоративный WeChat, DingTalk и Feishu, а также доступные для вызова внешние функции.
- Добавлен текстовый итератор, который может выводить только часть символов за раз, безопасно разделяя текст по символу переноса строки и размеру блока, не разрывая текст посередине. Параметр chunk_overlap указывает, сколько символов будет перекрываться при разделении текста. Это позволяет вводить очень длинные тексты пакетами: достаточно нажимать кнопку или включить циклическое выполнение в comfyui, чтобы автоматизировать процесс. Не забудьте включить свойство is_locked, чтобы автоматически заблокировать рабочий процесс по окончании ввода, предотвращая дальнейшее выполнение. Пример рабочего процесса: 文本迭代输入
- В локальном загрузчике LLM и локальном загрузчике llava добавлен атрибут model name; если он пуст, используются различные локальные пути из узла. Если он не пуст, загружаются параметры пути, указанные вами в
config.ini
. Если он не пуст и не указан вconfig.ini
, модель будет загружена с huggingface или из директории сохранения моделей huggingface. Если вы хотите загрузить с huggingface, укажите атрибут model name в формате, например:THUDM/glm-4-9b-chat
. Внимание! Модели, загружаемые таким образом, должны быть совместимы с библиотекой transformer. - Добавлены узлы для анализа JSON-файлов и получения значений из JSON, которые позволяют извлекать значение определенного ключа из файла или текста. Спасибо guobalove за вклад!
- Улучшен код вызова инструментов, теперь LLM, не обладающие функцией вызова инструментов, могут активировать атрибут is_tools_in_sys_prompt (локальные LLM по умолчанию не требуют активации, автоматически адаптируются). После активации информация о инструментах будет добавлена в системные подсказки, что позволит LLM вызывать инструменты. Связанная статья о принципах реализации: Achieving Tool Calling Functionality in LLMs Using Only Prompt Engineering Without Fine-Tuning
- Создана папка custom_tool для хранения кода пользовательских инструментов. Вы можете обратиться к коду в папке custom_tool и поместить код своих пользовательских инструментов в папку custom_tool, чтобы использовать их в LLM.
- Добавлен инструмент графа знаний, который позволяет LLM идеально взаимодействовать с графами знаний. LLM может изменять граф знаний на основе вашего ввода и проводить выводы для получения необходимых ответов. Пример рабочего процесса: graphRAG_neo4j
- Добавлена функция персонального AI, позволяющая без программирования создать собственного AI для девушки или парня, с неограниченным общением, постоянной памятью и стабильным характером. Пример рабочего процесса: 麦洛薇人格AI
- Вы можете использовать этот LLM-генератор инструментов для автоматической генерации инструментов LLM, сохранив сгенерированный код инструмента в файл python, а затем скопировав код в папку custom_tool, после чего вы создадите новый узел. Пример рабочего процесса: LLM工具生成器.
- Поддерживается поиск через duckduckgo, но с большими ограничениями, похоже, что можно вводить только английские ключевые слова, и ключевые слова не могут содержать несколько концепций. Преимущество заключается в отсутствии ограничений по API-ключам.
- Поддерживается функция отдельного вызова нескольких баз знаний, позволяющая в подсказках четко указывать, какая база знаний используется для ответа на вопрос. Пример рабочего процесса: 多知识库分别调用.
- Поддерживается ввод дополнительных параметров для LLM, включая json out и другие продвинутые параметры. Пример рабочего процесса: LLM输入额外参数. 用json_out分离提示词.
- Добавлена функция подключения агента к Discord. (Все еще в тестировании)
- Добавлена функция подключения агента к Feishu, огромная благодарность guobalove за вклад! Ссылка на рабочий процесс Feishu Robot.
- Добавлены универсальные узлы вызова API и множество вспомогательных узлов для формирования тела запроса и извлечения информации из ответа.
- Добавлен узел для очистки модели, который позволяет выгружать LLM из видеопамяти в любом месте!
- Добавлен узел chatTTS, огромная благодарность guobalove за вклад! Параметр
model_path
может быть пустым! Рекомендуется использовать режим HF для загрузки модели, модель будет автоматически загружена с hugging face, без необходимости ручной загрузки; если используется загрузка local, поместите папкиasset
иconfig
модели в корневую директорию. Ссылка на Baidu Cloud, код для извлечения: qyhu; если используется режимcustom
, поместите папкиasset
иconfig
модели в папкуmodel_path
. - Обновлены серии узлов преобразования: markdown в HTML, svg в изображение, HTML в изображение, mermaid в изображение, markdown в Excel.
- Совместим с моделью llama3.2 vision, поддерживает многократный диалог, визуальные функции. Адрес модели: meta-llama/Llama-3.2-11B-Vision-Instruct. Пример рабочего процесса: llama3.2_vision.
- Адаптированный GOT-OCR2, поддерживает форматированный вывод результатов, поддерживает точное распознавание текста с использованием позиционных блоков и цветов. Адрес модели: GOT-OCR2. Пример рабочего процесса преобразует снимок экрана веб-страницы в HTML-код, а затем открывает браузер для отображения этой веб-страницы: img2web.
- Значительно изменены узлы загрузчика локальных LLM, теперь вам не нужно выбирать тип модели самостоятельно. Повторно добавлены узлы загрузчика llava и GGUF. Тип модели на узле цепочки локальных моделей LLM изменен на LLM, VLM-GGUF и LLM-GGUF, что соответствует прямой загрузке моделей LLM, загрузке моделей VLM и загрузке моделей LLM в формате GGUF. Теперь снова поддерживаются модели VLM и модели LLM в формате GGUF. Локальные вызовы теперь могут быть совместимы с большим количеством моделей! Примеры рабочих процессов: LLM_local, llava, GGUF
- Добавлен узел EasyOCR для распознавания текста и позиций на изображениях. Он может создавать соответствующие маски и возвращать строку JSON для просмотра LLM. Доступны стандартная и премиум-версии на выбор!
- На вечеринке comfyui LLM была воспроизведена система клубники модели серии chatgpt-o1, ссылаясь на подсказки Llamaberry. Пример рабочего процесса: Система клубники по сравнению с o1.
- Добавлен новый узел GPT-sovits, позволяющий вызывать модель GPT-sovits для преобразования текста в речь на основе вашего эталонного аудио. Вы также можете указать путь к вашей доработанной модели (если не указано, будет использоваться базовая модель) для получения любого желаемого голоса. Для использования необходимо скачать проект GPT-sovits и соответствующую базовую модель локально, затем запустить API-сервис с помощью
runtime\python.exe api_v2.py
в папке проекта GPT-sovits. Кроме того, узел chatTTS был перемещен в comfyui LLM mafia. Причина в том, что у chatTTS много зависимостей, и его лицензия на PyPi - CC BY-NC 4.0, что является некоммерческой лицензией. Несмотря на то, что проект chatTTS на GitHub находится под лицензией AGPL, мы переместили узел chatTTS в comfyui LLM mafia, чтобы избежать ненужных проблем. Надеемся на ваше понимание! - Теперь поддерживает новейшую модель OpenAI, серию o1!
- Добавлен инструмент управления локальными файлами, который позволяет LLM управлять файлами в указанной вами папке, например, читать, записывать, добавлять, удалять, переименовывать, перемещать и копировать файлы.Из-за потенциальной опасности этого узла он включен в comfyui LLM mafia.
- Новые инструменты SQL позволяют LLM выполнять запросы к базам данных SQL.
- Обновлена многоязычная версия README. Рабочий процесс для перевода документа README: translate_readme
- Обновлено четыре узла итераторов (текстовый итератор, изображенческий итератор, табличный итератор, json-итератор). Режимы итераторов включают: последовательный, случайный и бесконечный. Последовательный режим выводит данные по порядку, пока не превышает предел индекса, после чего процесс автоматически прекращается, а индекс сбрасывается на 0. Случайный режим будет выбирать случайный индекс для вывода, бесконечный режим будет циклически повторять вывод.
- Добавлен узел загрузчика API Gemini, который теперь совместим с официальным API Gemini! Если вы находитесь в сети в Китае и сталкиваетесь с проблемами ограничения API по региону, переключите узел на США и используйте режим TUN. Из-за того, что при вызове инструмента Gemini, если возвращаемые параметры содержат китайские символы, может возникать ошибка с кодом 500, некоторые узлы инструментов могут быть недоступны. Пример рабочего процесса: start_with_gemini
- Добавлен узел lore book, который позволяет вставлять ваши фоновые настройки во время диалога с LLM, пример рабочего процесса: lorebook
- Добавлен узел генератора масок подсказок FLUX, который может генерировать подсказки в различных стилях, таких как карты Hearthstone, карты Yu-Gi-Oh!, постеры, комиксы и другие, позволяя модели FLUX генерировать выходные данные. Пример рабочего процесса: FLUX提示词
- Больше адаптаций моделей;
- Больше способов создания агентов;
- Больше функций автоматизации;
- Больше функций управления базой знаний;
- Больше инструментов, больше персон.
Данный открытый проект и его содержание (далее именуемые "проект") предназначены только для справочных целей и не подразумевают никаких явных или подразумеваемых гарантий. Участники проекта не несут никакой ответственности за полноту, точность, надежность или применимость проекта. Любые действия, основанные на содержании проекта, осуществляются на ваш собственный риск. В любых случаях участники проекта не несут ответственности за любые косвенные, специальные или побочные убытки или повреждения, возникшие в результате использования содержания проекта.
Некоторые узлы в этом проекте заимствованы из следующих проектов, благодарим их за вклад в сообщество с открытым исходным кодом!
Если у вас возникли проблемы с плагином или есть другие вопросы, приглашаем вас присоединиться к нашему сообществу.
- QQ группа:
931057213
-
微信群:
Choo-Yong
(添加小助手微信后进群) -
discord:дискорд-ссылка
- Если вы хотите оставаться в курсе последних функций этого проекта, пожалуйста, подпишитесь на аккаунт B站: 派对主持BB机
- Аккаунт OpenArt постоянно обновляет самые полезные рабочие процессы для вечеринок: openart
Если моя работа принесла вам ценность, пожалуйста, подумайте о том, чтобы угостить меня чашечкой кофе! Ваша поддержка не только придаёт проекту жизнь, но и согревает сердце создателя.☕💖 Каждая чашка имеет значение!