Skip to content

Latest commit

 

History

History
272 lines (237 loc) · 36.8 KB

README_PT.md

File metadata and controls

272 lines (237 loc) · 36.8 KB

Imagem

Comfyui_llm_party tem como objetivo, com base na comfyui, uma interface de usuário extremamente minimalista, desenvolver um conjunto completo de biblioteca de nós para a construção de fluxos de trabalho de LLM. Isso permitirá que os usuários construam seus próprios fluxos de trabalho de LLM de forma mais rápida e conveniente, além de integrar facilmente em seus próprios fluxos de trabalho de imagem.

Demonstração de resultados

EN.mp4

Visão Geral do Projeto

ComfyUI LLM Party permite desde a chamada de múltiplas ferramentas LLM, configuração rápida de personagens para construir seu assistente de IA personalizado, até a aplicação de Word Vector RAG e GraphRAG para gerenciamento local de bancos de dados de conhecimento da indústria; desde um pipeline de agentes inteligentes simples, até a construção de modos de interação complexos entre agentes inteligentes em padrão radial e circular; desde a necessidade de usuários individuais de integrar seus aplicativos sociais (QQ, Feishu, Discord), até o fluxo de trabalho tudo-em-um LLM+TTS+ComfyUI que os trabalhadores de streaming precisam; desde o primeiro aplicativo LLM que alunos comuns precisam para um fácil início, até as diversas interfaces de ajuste de parâmetros frequentemente utilizadas por pesquisadores e a adaptação de modelos. Tudo isso, você pode encontrar respostas no ComfyUI LLM Party.

Início Rápido

  1. Arraste os seguintes fluxos de trabalho para o seu comfyui e use comfyui-Manager para instalar os nós ausentes.
  1. Se você estiver usando a API, preencha seu base_url (pode ser uma API de retransmissão, certifique-se de que termine com /v1/) e api_key no nó de carregamento da API LLM. Exemplo: https://api.openai.com/v1/
  2. Se você estiver usando ollama, ative a opção is_ollama no nó de carregamento da API LLM, não é necessário preencher base_url e api_key.
  3. Se você estiver usando um modelo local, preencha o caminho do seu modelo no nó de carregamento do modelo local, por exemplo: E:\model\Llama-3.2-1B-Instruct. Você também pode preencher o ID do repositório do modelo no Huggingface no nó de carregamento do modelo local, por exemplo: lllyasviel/omost-llama-3-8b-4bits.
  4. Devido ao alto limiar de uso deste projeto, mesmo que você escolha o início rápido, espero que possa ler pacientemente a página inicial do projeto.

Atualizações Recentes

  1. Fiz um fork de chatgpt-on-wechat e criei um novo repositório party-on-wechat. Os métodos de instalação e uso são os mesmos do projeto original, não é necessária configuração, basta iniciar o FastAPI da party. Por padrão, ele chama o fluxo de trabalho wx_api e suporta a saída de imagens. Será atualizado gradualmente para garantir uma experiência suave do party no WeChat.
  2. Adicionei um nó de máscara In-Context-LoRA, usado para gerar instruções In-Context-LoRA consistentes.
  3. Adicionamos um componente frontend cujas funções são dispostas da esquerda para a direita como segue:
  • Salva sua chave API e Base URL no arquivo config.ini. Quando você usa a função fix node no nó carregador de API LLM, ele lê automaticamente a chave API e a Base URL que você modificou no arquivo config.ini.
  • Inicia um serviço FastAPI que pode ser usado para chamar seus fluxos de trabalho do ComfyUI. Se você o executar diretamente, você obtém uma interface OpenAI em http://127.0.0.1:8817/v1/. Você precisa conectar o início e o fim do seu fluxo de trabalho aos nós 'Início do fluxo de trabalho' e 'Fim do fluxo de trabalho', depois salvar no formato API na pasta workflow_api. Em seguida, em qualquer frontend que possa chamar a interface OpenAI, insira model name=<nome do seu fluxo de trabalho sem a extensão .json>, Base URL=http://127.0.0.1:8817/v1/, e a chave API pode ser preenchida com qualquer valor.
  • Inicia um aplicativo Streamlit; o processo de salvamento do fluxo de trabalho é o mesmo que acima. Você pode selecionar seu fluxo de trabalho salvo nas 'Configurações' do aplicativo Streamlit e interagir com seu agente de fluxo de trabalho no 'Chat'.
  • 'Sobre nós', que apresenta este projeto.
  1. O nó de lista de nomes de modelos automáticos foi removido e substituído por um nó de carregador de API LLM simples, que obtém automaticamente a lista de nomes de modelos a partir da configuração no seu ficheiro config.ini. Só precisa de selecionar um nome para carregar o modelo. Além disso, foram atualizados os nós de carregador simples LLM, carregador simples LLM-GGUF, carregador simples VLM, carregador simples VLM-GGUF e carregador simples LLM lora. Todos eles lêem automaticamente os caminhos dos modelos da pasta model dentro da pasta party, tornando mais fácil para todos carregar vários modelos locais.
  2. Os LLMs agora podem carregar lora dinamicamente como SD e FLUX. Você pode encadear vários loras para carregar mais loras no mesmo LLM. Exemplo de fluxo de trabalho: start_with_LLM_LORA.
  3. Adicionou a ferramenta searxng, que pode agregar pesquisas em toda a web. Perplexica também depende dessa ferramenta de pesquisa agregada, então você pode configurar um Perplexica na sua festa. Você pode implantar a imagem pública searxng/searxng no Docker, depois iniciá-la usando docker run -d -p 8080:8080 searxng/searxng e acessá-la usando http://localhost:8080. Você pode preencher esta URL http://localhost:8080 na ferramenta searxng da festa, e então você pode usar searxng como uma ferramenta para LLM.
  4. Atualização importante!!! Agora você pode encapsular qualquer fluxo de trabalho do ComfyUI em um nó de ferramenta LLM. Você pode fazer com que seu LLM controle vários fluxos de trabalho do ComfyUI simultaneamente. Quando você quiser que ele complete algumas tarefas, ele pode escolher o fluxo de trabalho do ComfyUI apropriado com base no seu prompt, completar sua tarefa e retornar o resultado para você. Exemplo de fluxo de trabalho: comfyui_workflows_tool. Os passos específicos são os seguintes:
    • Primeiro, conecte a interface de entrada de texto do fluxo de trabalho que você deseja encapsular como ferramenta à saída "user_prompt" do nó "Iniciar fluxo de trabalho". Este é o lugar onde o prompt é passado quando o LLM chama a ferramenta.
    • Conecte as posições onde você deseja sair texto e imagens às posições de entrada correspondentes do nó "Finalizar fluxo de trabalho".
    • Salve este fluxo de trabalho como uma API (você precisa habilitar o modo desenvolvedor nas configurações para ver este botão).
    • Salve este fluxo de trabalho na pasta workflow_api deste projeto.
    • Reinicie o ComfyUI e crie um fluxo de trabalho LLM simples, como: start_with_LLM_api.
    • Adicione um nó "Ferramenta de fluxo de trabalho" a este nó LLM e conecte-o à entrada de ferramenta do nó LLM.
    • No nó "Ferramenta de fluxo de trabalho", escreva o nome do arquivo de fluxo de trabalho que você deseja chamar na primeira caixa de entrada, por exemplo: draw.json. Você pode escrever vários nomes de arquivos de fluxo de trabalho. Na segunda caixa de entrada, escreva a função de cada fluxo de trabalho para que o LLM entenda como usar esses fluxos de trabalho.
    • Execute-o para ver o LLM chamar seu fluxo de trabalho encapsulado e retornar o resultado para você. Se o resultado for uma imagem, conecte o nó "Visualizar imagem" à saída de imagem do nó LLM para visualizar a imagem gerada. Atenção! Este método chama um novo ComfyUI na sua porta 8190, por favor, não ocupe esta porta. Um novo terminal será aberto nos sistemas Windows e Mac, por favor, não o feche. O sistema Linux usa o processo screen para conseguir isso, quando você não precisar usá-lo, feche este processo screen, caso contrário, ele sempre ocupará sua porta.

workflow_tool

Instruções de Uso

  1. Para instruções sobre o uso dos nós, consulte: 怎么使用节点

  2. Se houver problemas com o plugin ou se você tiver outras dúvidas, sinta-se à vontade para entrar no grupo QQ: 931057213 |discord:discord.

  3. Para o tutorial de fluxo de trabalho, por favor, consulte: 工作流教程,agradecemos a contribuição de HuangYuChuh!

  4. Conta para o uso avançado do fluxo de trabalho: openart

  5. Para mais fluxos de trabalho, você pode consultar a pasta workflow.

Tutoriais em vídeo

octocat octocat

Suporte ao Modelo

  1. Suporte a todas as chamadas de API no formato openai (combinado com oneapi, é possível chamar quase todas as APIs LLM, além de suportar todas as APIs de encaminhamento), a escolha do base_url deve seguir o exemplo em config.ini.example, atualmente testados incluem:
  1. Suporte a chamadas de API no formato Gemini:
  1. Compatível com a maioria dos modelos locais na biblioteca transformer (o tipo de modelo no nó da cadeia de modelos LLM local foi alterado para LLM, VLM-GGUF e LLM-GGUF, correspondendo ao carregamento direto de modelos LLM, carregamento de modelos VLM e carregamento de modelos LLM no formato GGUF). Se o seu modelo LLM no formato VLM ou GGUF relatar um erro, faça o download da versão mais recente do llama-cpp-python em llama-cpp-python. Os modelos atualmente testados incluem:
  1. Download do modelo:

Download

Utilize um dos métodos abaixo para instalar

Método 1:

  1. No gerenciador comfyui, pesquise por comfyui_LLM_party e instale com um clique
  2. Reinicie o comfyui

Método Dois:

  1. Navegue até a pasta raiz do ComfyUI e acesse a subpasta custom_nodes.
  2. Clone este repositório: git clone https://github.com/heshengtao/comfyui_LLM_party.git

Método Três:

  1. Clique em CODE no canto superior direito.
  2. Clique em download zip.
  3. Extraia o arquivo compactado baixado na subpasta custom_nodes da pasta raiz do ComfyUI.

Implantação do Ambiente

  1. Navegue até a pasta do projeto comfyui_LLM_party.
  2. No terminal, digite pip install -r requirements.txt para implantar as bibliotecas de terceiros necessárias para este projeto no ambiente do ComfyUI. Verifique se você está instalando no ambiente do ComfyUI e fique atento a erros do pip no terminal.
  3. Se você estiver usando o lançador do ComfyUI, você precisará digitar no terminal caminho na configuração do lançador\python_embeded\python.exe -m pip install -r requirements.txt para realizar a instalação. A pasta python_embeded geralmente está no mesmo nível da sua pasta ComfyUI.
  4. Se você encontrar problemas de configuração do ambiente, pode tentar usar as dependências do requirements_fixed.txt.

Configuração

  • A linguagem pode ser configurada no config.ini, atualmente disponíveis apenas o Chinês (zh_CN) e o Inglês (en_US), sendo o padrão a língua do seu sistema.
  • Você pode configurar o APIKEY utilizando um dos métodos a seguir:

Método Um:

  1. Abra o arquivo config.ini na pasta do projeto comfyui_LLM_party.
  2. Insira seu openai_api_key e base_url no config.ini.
  3. Se você estiver utilizando o modelo ollama, insira http://127.0.0.1:11434/v1/ em base_url, coloque ollama em openai_api_key e insira o nome do seu modelo em model_name, por exemplo: llama3.
  4. Se você deseja utilizar ferramentas de busca do Google ou Bing, insira seu google_api_key, cse_id ou bing_api_key no config.ini.
  5. Se você pretende usar entrada de imagem para LLM, recomenda-se o uso do serviço de hospedagem de imagens imgbb, insira seu imgbb_api no config.ini.
  6. Cada modelo pode ser configurado separadamente no arquivo config.ini, utilizando como referência o arquivo config.ini.example. Após a configuração, basta inserir model_name no nó.

Método Dois:

  1. Abra a interface do comfyui.
  2. Crie um nó de modelo de linguagem grande (LLM) e insira diretamente seu openai_api_key e base_url no nó.
  3. Se você estiver utilizando o modelo ollama, utilize o nó LLM_api, insira http://127.0.0.1:11434/v1/ em base_url, coloque ollama em api_key e insira o nome do seu modelo em model_name, por exemplo: llama3.
  4. Se você deseja usar entrada de imagem para LLM, recomenda-se o uso do serviço de hospedagem de imagens imgbb, insira seu imgbb_api_key no nó.

Registro de Atualizações

  1. Você pode clicar com o botão direito na interface do comfyui e selecionar llm no menu do botão direito para encontrar os nós deste projeto. Como usar os nós
  2. Suporte para integração de API ou integração de grandes modelos locais. Implementação modular da funcionalidade de chamada de ferramentas. Ao preencher o base_url, insira um URL que termine com /v1/. Você pode usar ollama para gerenciar seus modelos e, em seguida, preencher http://127.0.0.1:11434/v1/ no base_url, colocar ollama em api_key e o nome do seu modelo em model_name, por exemplo: llama3.
  • Exemplo de fluxo de trabalho para integração de API: start_with_LLM_api
  • Exemplo de fluxo de trabalho para integração de modelo local: start_with_LLM_local
  • Exemplo de fluxo de trabalho para integração de ollama: ollama
  1. Integração de repositório local de conhecimento, suporte a RAG. Exemplo de fluxo de trabalho: Busca RAG no Repositório
  2. Capacidade de chamar um interpretador de código.
  3. Capacidade de consulta online, suporte a pesquisa no Google. Exemplo de fluxo de trabalho: Fluxo de Trabalho de Consulta de Filmes
  4. Possibilidade de implementar declarações condicionais no comfyui, permitindo classificar perguntas dos usuários antes de responder de forma direcionada. Exemplo de fluxo de trabalho: Atendimento ao Cliente Inteligente
  5. Suporte para links de feedback de grandes modelos, permitindo que dois grandes modelos debate. Exemplo de fluxo de trabalho: Debate sobre o Dilema do Trem
  6. Suporte para anexar qualquer máscara de personalidade, permitindo a personalização de modelos de prompt.
  7. Suporte para diversas chamadas de ferramentas; atualmente, foram desenvolvidas funcionalidades para verificar clima, hora, repositório de conhecimento, execução de código, pesquisa online e pesquisa em uma única página da web, entre outras.
  8. Suporte para usar o LLM como um nó de ferramenta. Exemplo de fluxo de trabalho: LLM Matryoshka
  9. Suporte para desenvolvimento rápido de aplicações web próprias através de API + streamlit.
  10. Adição de um nó interpretador universal perigoso, permitindo que o grande modelo faça qualquer coisa.
  11. Recomenda-se o uso do nó de exibição de texto (show_text) no subdiretório de funções (function) do menu do botão direito como saída do nó LLM.
  12. Suporte para a funcionalidade visual do GPT-4O! Exemplo de fluxo de trabalho: GPT-4o
  13. Adicionado um intermediário de fluxo de trabalho, que permite que seu fluxo de trabalho chame outros fluxos de trabalho! Exemplo de fluxo de trabalho: Chamar outro fluxo de trabalho
  14. Compatível com todos os modelos que possuem interfaces semelhantes à openai, como: Tongyi Qianwen/qwen, Zhiyu Qingyan/GLM, deepseek, kimi/moonshot. Preencha o base_url, api_key e model_name desses modelos no nó LLM para chamá-los.
  15. Adicionado um carregador LVM, agora é possível chamar modelos LVM localmente, suportando o modelo llava-llama-3-8b-v1_1-gguf; outros modelos LVM no formato GGUF devem teoricamente também funcionar. O exemplo de fluxo de trabalho está aqui: start_with_LVM.json.
  16. Foi escrito um arquivo fastapi.py, se você executá-lo diretamente, você terá uma interface openai em http://127.0.0.1:8817/v1/, qualquer aplicativo que possa chamar o GPT poderá acessar seu fluxo de trabalho comfyui! Irei preparar um tutorial detalhado para demonstrar como operar isso~
  17. O carregador LLM e a cadeia LLM foram separados, permitindo que o carregamento do modelo e a configuração do modelo sejam distintos, o que possibilita o compartilhamento de modelos entre diferentes nós LLM!
  18. Atualmente, já são suportados dispositivos macOS e mps! Agradecimentos a bigcat88 por sua contribuição!
  19. Agora é possível criar seu próprio jogo de novela interativa, com diferentes finais dependendo das escolhas dos usuários! Exemplo de fluxo de trabalho: Novela Interativa
  20. Compatível com as funcionalidades de whisper e tts da openai, permitindo entrada e saída de voz. Exemplo de fluxo de trabalho: Entrada de voz + Saída de voz
  21. Compatível com Omost!!! Por favor, baixe omost-llama-3-8b-4bits e experimente agora mesmo! Para referência de fluxo de trabalho, consulte: start_with_OMOST
  22. Adicionadas ferramentas LLM para enviar mensagens ao WeChat empresarial, DingTalk e Feishu, além de funções externas que podem ser chamadas.
  23. Um novo iterador de texto foi adicionado, que pode gerar apenas uma parte dos caracteres a cada vez, dividindo o texto de forma segura com base no caractere de nova linha e no tamanho do bloco (chunk size), sem cortar o texto no meio. O chunk_overlap refere-se à quantidade de caracteres que se sobrepõem na divisão do texto. Isso permite a entrada em massa de textos muito longos, bastando clicar sem pensar, ou ativar a execução em loop no comfyui para que a execução seja feita automaticamente. Lembre-se de ativar o atributo is_locked para que, ao final da entrada, o fluxo de trabalho seja automaticamente bloqueado e não continue a execução. Fluxo de trabalho de exemplo: 文本迭代输入
  24. Adicionado o atributo model name no carregador LLM local e no carregador llava local; se estiver vazio, será utilizado o caminho local de diversos tipos contido no nó. Se não estiver vazio, será utilizado o parâmetro de caminho que você preencheu no config.ini. Se não estiver vazio e não estiver no config.ini, será feito o download do Hugging Face ou carregado do diretório de modelos do Hugging Face. Se você deseja baixar do Hugging Face, preencha o atributo model name no formato: THUDM/glm-4-9b-chat. Atenção! O modelo carregado dessa forma deve ser compatível com a biblioteca transformer.
  25. Adicionados nós de análise de arquivos JSON e nós de obtenção de valores JSON, que permitem obter o valor de uma chave específica de um arquivo ou texto. Agradecimentos a guobalove pela contribuição!
  26. O código de chamada de ferramentas foi aprimorado, agora LLMs que não possuem a funcionalidade de chamada de ferramentas também podem ativar o atributo is_tools_in_sys_prompt (LLM local não precisa ser ativado por padrão, se adapta automaticamente). Quando ativado, as informações da ferramenta serão adicionadas ao prompt do sistema, permitindo que o LLM faça chamadas de ferramentas. O artigo relacionado ao princípio de implementação: Achieving Tool Calling Functionality in LLMs Using Only Prompt Engineering Without Fine-Tuning
  27. Foi criada a pasta custom_tool para armazenar o código das ferramentas personalizadas, podendo ser consultado o código na pasta custom_tool. Basta colocar o código da ferramenta personalizada na pasta custom_tool para que ela possa ser chamada no LLM.
  28. Foi adicionada a ferramenta de gráfico de conhecimento, permitindo uma interação perfeita entre o LLM e o gráfico de conhecimento. O LLM pode modificar o gráfico de conhecimento com base na sua entrada e inferir para obter as respostas que você precisa. Para um fluxo de trabalho exemplo, consulte: graphRAG_neo4j
  29. Foi introduzida a funcionalidade de AI de personalidade, permitindo o desenvolvimento de sua própria AI de namorada ou namorado sem necessidade de código, com diálogos infinitos, memória permanente e personagens estáveis. Para um fluxo de trabalho exemplo, consulte: 麦洛薇人格AI
  30. Você pode usar esta máquina de ferramentas LLM para gerar automaticamente ferramentas LLM, salvando o código da ferramenta gerada em um arquivo python e copiando o código para a pasta custom_tool, criando assim um novo nó. Fluxo de trabalho exemplo: LLM工具生成器.
  31. O suporte à busca no duckduckgo foi adicionado, mas com grandes limitações; parece que só é possível inserir palavras-chave em inglês, e as palavras-chave não podem conter múltiplos conceitos, com a vantagem de não haver restrições de qualquer API key.
  32. Foi implementada a funcionalidade de chamada separada de múltiplos repositórios de conhecimento, permitindo especificar qual repositório de conhecimento utilizar para responder perguntas dentro do prompt. Para um fluxo de trabalho exemplo, consulte: 多知识库分别调用.
  33. Suporte para que o LLM receba parâmetros adicionais, incluindo json out e outros parâmetros avançados. Para um fluxo de trabalho exemplo, consulte: LLM输入额外参数. 用json_out分离提示词.
  34. Foi adicionada a funcionalidade de conectar agentes ao Discord. (Ainda em teste)
  35. Foi adicionada a funcionalidade de conectar agentes ao Feishu, agradecemos imensamente a contribuição de guobalove! Consulte o fluxo de trabalho Robô Feishu.
  36. Foi adicionado um nó de chamada de API universal e uma grande quantidade de nós auxiliares, utilizados para construir o corpo da solicitação e capturar informações da resposta.
  37. Foi adicionado um nó de limpeza de modelo, que permite descarregar o LLM da memória a qualquer momento!
  38. Foi adicionado o nó chatTTS, agradecemos imensamente a contribuição de guobalove! O parâmetro model_path pode ser deixado vazio! Recomenda-se usar o modo HF para carregar o modelo, que será baixado automaticamente do Hugging Face, sem necessidade de download manual; se usar o modo local, coloque as pastas asset e config do modelo no diretório raiz. Endereço do Baidu Cloud, código de extração: qyhu; se usar o modo custom, coloque as pastas asset e config do modelo dentro de model_path.
  39. Foi atualizada uma série de nós de conversão: markdown para HTML, svg para imagem, HTML para imagem, mermaid para imagem, markdown para Excel.
  40. Compatível com o modelo llama3.2 vision, suporta diálogos de múltiplas voltas, funções visuais. Endereço do modelo: meta-llama/Llama-3.2-11B-Vision-Instruct. Exemplo de fluxo de trabalho: llama3.2_vision.
  41. Adaptado GOT-OCR2, suporta resultados de saída formatados, suporta reconhecimento fino de texto usando caixas de posição e cores. Endereço do modelo: GOT-OCR2. O fluxo de trabalho de exemplo converte uma captura de tela de uma página da web em código HTML e, em seguida, abre o navegador para exibir essa página da web: img2web.
  42. Os nós do carregador LLM local foram significativamente ajustados, então você não precisa mais escolher o tipo de modelo por conta própria. O nó do carregador llava e o nó do carregador GGUF foram readicionados. O tipo de modelo no nó da cadeia de modelos LLM local foi alterado para LLM, VLM-GGUF e LLM-GGUF, correspondendo ao carregamento direto de modelos LLM, carregamento de modelos VLM e carregamento de modelos LLM no formato GGUF. Agora, os modelos VLM e os modelos LLM no formato GGUF são novamente suportados. As chamadas locais agora podem ser compatíveis com mais modelos! Exemplos de fluxos de trabalho: LLM_local, llava, GGUF
  43. Adicionado o nó EasyOCR para reconhecer texto e posições em imagens. Ele pode gerar máscaras correspondentes e retornar uma string JSON para visualização pelo LLM. Existem versões padrão e premium disponíveis para todos escolherem!
  44. Na festa comfyui LLM, o sistema de morango do modelo da série chatgpt-o1 foi reproduzido, referindo-se aos prompts de Llamaberry. Exemplo de fluxo de trabalho: Sistema de morango comparado ao o1.
  45. Foi adicionado um novo nó GPT-sovits, permitindo chamar o modelo GPT-sovits para converter texto em fala com base no seu áudio de referência. Você também pode preencher o caminho do seu modelo ajustado (se não preenchido, o modelo base será usado para inferência) para obter qualquer voz desejada. Para usá-lo, você precisa baixar o projeto GPT-sovits e o modelo base correspondente localmente, depois iniciar o serviço API com runtime\python.exe api_v2.py na pasta do projeto GPT-sovits. Além disso, o nó chatTTS foi movido para comfyui LLM mafia. A razão é que o chatTTS tem muitas dependências, e sua licença no PyPi é CC BY-NC 4.0, que é uma licença não comercial. Embora o projeto chatTTS no GitHub esteja sob a licença AGPL, movemos o nó chatTTS para comfyui LLM mafia para evitar problemas desnecessários. Esperamos que todos entendam!
  46. Agora suporta o modelo mais recente da OpenAI, a série o1!
  47. Foi adicionada uma ferramenta de controle de arquivos locais que permite ao LLM controlar arquivos na pasta especificada, como ler, escrever, adicionar, excluir, renomear, mover e copiar arquivos.Devido ao perigo potencial deste nó, ele está incluído em comfyui LLM mafia.
  48. Novas ferramentas SQL permitem que o LLM consulte bancos de dados SQL.
  49. Atualizada a versão multilíngue do README. Fluxo de trabalho para traduzir o documento README: translate_readme
  50. Atualizados quatro nós iteradores (iterador de texto, iterador de imagem, iterador de tabela, iterador JSON), onde os modos de iteração são: sequencial, aleatório e infinito. O modo sequencial irá gerar saídas em ordem, até que exceda o limite do índice e interrompa automaticamente o processo, reiniciando o valor do índice para 0; o modo aleatório escolherá um índice aleatório para saída; o modo infinito irá gerar saídas em um loop infinito.
  51. Adicionado o nó carregador de API Gemini, agora compatível com a API oficial do Gemini! Se você estiver em um ambiente de rede nacional e encontrar problemas de restrição geográfica da API, por favor, altere o nó para os Estados Unidos e use o modo TUN. Devido ao fato de que, ao chamar ferramentas, se os parâmetros retornados contiverem caracteres chineses, ocorrerá um erro com código de retorno 500, portanto, alguns nós de ferramentas podem não estar disponíveis. Fluxo de trabalho de exemplo: start_with_gemini
  52. Adicionado o nó de livro de lore, que permite inserir seu cenário de fundo durante a conversa com o LLM, fluxo de trabalho de exemplo: lorebook
  53. Adicionado o nó gerador de prompts FLUX, que pode gerar prompts em diversos estilos, como cartas de Hearthstone, cartas de Yu-Gi-Oh, pôsteres, quadrinhos, etc., permitindo que o modelo FLUX gere diretamente. Fluxo de trabalho de referência: FLUX提示词

Próximos passos:

  1. Mais adaptações de modelos;
  2. Mais formas de construir agentes;
  3. Mais recursos de automação;
  4. Mais recursos de gestão de base de conhecimento;
  5. Mais ferramentas, mais personas.

Isenção de responsabilidade:

Este projeto de código aberto e seu conteúdo (doravante denominado "projeto") são fornecidos apenas para fins de referência e não implicam em qualquer garantia expressa ou implícita. Os contribuintes do projeto não assumem qualquer responsabilidade pela integridade, precisão, confiabilidade ou adequação do projeto. Qualquer ação que dependa do conteúdo do projeto deve ser realizada por sua própria conta e risco. Em nenhuma circunstância os contribuintes do projeto serão responsáveis por quaisquer perdas ou danos indiretos, especiais ou consequenciais decorrentes do uso do conteúdo do projeto.

Agradecimentos Especiais

octocat octocat octocat octocat

Agradecimentos

Alguns nós deste projeto foram inspirados pelos seguintes projetos, agradecemos suas contribuições à comunidade de código aberto!

  1. pythongosssss/ComfyUI-Custom-Scripts
  2. lllyasviel/Omost

Suporte:

Junte-se à Comunidade

Se houver problemas com o plugin ou se você tiver outras dúvidas, sinta-se à vontade para se juntar à nossa comunidade.

  1. Grupo QQ: 931057213
  1. Grupo WeChat: Choo-Yong (adicione o assistente no WeChat antes de entrar no grupo)

  2. Discord: discord链接

Siga-nos

  1. Se desejar acompanhar as últimas funcionalidades deste projeto, fique à vontade para seguir nossa conta no Bilibili: 派对主持BB机
  2. A conta OpenArt atualiza continuamente os workflows de festa mais úteis: openart

Apoio à doação

Se meu trabalho lhe trouxe valor, considere me convidar para um café! Seu apoio não apenas energiza o projeto, mas também aquece o coração do criador.☕💖 Cada xícara conta!

Histórico de Estrelas

Star History Chart