Descrição do componente
Como o componente LLM DeepSeek funciona
O que é o componente LLM DeepSeek?
O componente LLM DeepSeek conecta os modelos DeepSeek ao seu Flow. Enquanto os Geradores e Agentes são onde a mágica realmente acontece, os componentes LLM permitem trocar e controlar o modelo utilizado.

Lembre-se de que conectar um Componente LLM é opcional. Todos os componentes que usam um LLM vêm com o ChatGPT-4o como padrão. Os componentes LLM permitem alterar o modelo e controlar as configurações do modelo.
Configurações do componente LLM Gemini
Máximo de Tokens
Tokens representam as unidades individuais de texto que o modelo processa e gera. O uso de tokens varia conforme o modelo, e um único token pode ser qualquer coisa desde palavras ou subpalavras até um único caractere. Os modelos geralmente são precificados em milhões de tokens.
A configuração de máximo de tokens limita o número total de tokens que podem ser processados em uma única interação ou solicitação, garantindo que as respostas sejam geradas dentro de limites razoáveis. O limite padrão é de 4.000 tokens, o tamanho ideal para resumir documentos e várias fontes para gerar uma resposta.
Temperatura
A temperatura controla a variabilidade das respostas, variando de 0 a 1.
Uma temperatura de 0,1 fará com que as respostas sejam muito diretas, mas potencialmente repetitivas e deficientes.
Uma temperatura alta de 1 permite máxima criatividade nas respostas, mas cria o risco de respostas irrelevantes ou até mesmo alucinatórias.
Por exemplo, a temperatura recomendada para um bot de atendimento ao cliente é entre 0,2 e 0,5. Esse nível deve manter as respostas relevantes e dentro do roteiro, permitindo uma variação natural nas respostas.
Modelo
Este é o seletor de modelo. Aqui, você encontrará todos os modelos DeepSeek suportados. Suportamos todos os modelos Gemini mais recentes:
- DeepSeek R1: O modelo chinês leve e open source que conquistou o mundo no início de 2025. Atualmente é o modelo DeepSeek mais rápido e eficiente, superando facilmente o modelo o1 da OpenAI.
Como adicionar o LLM DeepSeek ao seu Flow
Você notará que todos os componentes LLM possuem apenas um conector de saída. A entrada não passa pelo componente, pois ele apenas representa o modelo, enquanto a geração real acontece nos Agentes de IA e Geradores.
O conector LLM é sempre roxo. O conector de entrada LLM é encontrado em qualquer componente que utilize IA para gerar texto ou processar dados. Você pode ver as opções clicando no conector:

Isso permite criar todos os tipos de ferramentas. Vamos ver o componente em ação. Aqui está um fluxo simples de chatbot Agente de IA usando o DeepSeek R1 para gerar respostas. Você pode pensar nisso como um chatbot DeepSeek básico.
Este fluxo de chatbot simples inclui:
- Entrada do chat: Representa a mensagem que um usuário envia no chat.
- Histórico do chat: Garante que o chatbot possa lembrar e considerar respostas passadas.
- Saída do chat: Representa a resposta final do chatbot.
- Agente de IA: Um agente de IA autônomo que gera respostas.
- LLM DeepSeek: A conexão com os modelos de geração DeepSeek.

Perguntas frequentes
- O que é o LLM DeepSeek no FlowHunt?
O LLM DeepSeek é um componente do FlowHunt que permite conectar e controlar modelos de IA DeepSeek para geração de texto e imagem, possibilitando chatbots poderosos e fluxos automatizados.
- Quais modelos DeepSeek são suportados?
O FlowHunt suporta todos os modelos DeepSeek mais recentes, incluindo o DeepSeek R1, conhecido por sua velocidade e desempenho, especialmente em comparação com outros modelos líderes de IA.
- Como posso personalizar as configurações do LLM DeepSeek?
Você pode ajustar o máximo de tokens para o comprimento das respostas e a temperatura para criatividade das respostas, além de alternar entre os modelos DeepSeek disponíveis diretamente no painel do FlowHunt.
- É obrigatório conectar um componente LLM DeepSeek?
Não, conectar um componente LLM é opcional. Por padrão, o FlowHunt utiliza o ChatGPT-4o, mas adicionar o LLM DeepSeek permite que você troque e controle qual modelo de IA alimenta seus fluxos.
Experimente o FlowHunt com DeepSeek
Comece a construir chatbots de IA e ferramentas de automação mais inteligentes usando os avançados modelos DeepSeek—tudo sem configuração complexa ou várias assinaturas.