Descrição do componente
Como o componente LLM Gemini funciona
O que é o componente LLM Gemini?
O componente LLM Gemini conecta os modelos Gemini do Google ao seu fluxo. Enquanto os Geradores e Agentes são onde a mágica realmente acontece, os componentes LLM permitem que você controle o modelo utilizado. Todos os componentes vêm com o ChatGPT-4 por padrão. Você pode conectar este componente se desejar trocar o modelo ou ter mais controle sobre ele.

Lembre-se de que conectar um Componente LLM é opcional. Todos os componentes que usam um LLM vêm com o ChatGPT-4o como padrão. Os componentes LLM permitem que você troque o modelo e controle as configurações do modelo.
Configurações do Componente LLM Gemini
Max Tokens
Tokens representam as unidades individuais de texto que o modelo processa e gera. O uso de tokens varia conforme o modelo, e um único token pode ser qualquer coisa, desde palavras ou subpalavras até um único caractere. Os modelos geralmente têm preços baseados em milhões de tokens.
A configuração de max tokens limita o número total de tokens que podem ser processados em uma única interação ou solicitação, garantindo que as respostas sejam geradas dentro de limites razoáveis. O limite padrão é de 4.000 tokens, o tamanho ideal para resumir documentos e várias fontes para gerar uma resposta.
Temperature
Temperature controla a variabilidade das respostas, variando de 0 a 1.
Uma temperature de 0,1 fará com que as respostas sejam muito diretas, mas potencialmente repetitivas e pouco desenvolvidas.
Uma temperature alta de 1 permite máxima criatividade nas respostas, mas cria o risco de respostas irrelevantes ou até mesmo alucinatórias.
Por exemplo, a temperature recomendada para um bot de atendimento ao cliente é entre 0,2 e 0,5. Esse nível deve manter as respostas relevantes e dentro do roteiro, ao mesmo tempo permitindo uma variação natural nas respostas.
Modelo
Este é o seletor de modelos. Aqui, você encontrará todos os modelos Gemini suportados do Google. Nós suportamos todos os modelos Gemini mais recentes:
- Gemini 2.0 Flash Experimental – Um modelo avançado e de baixa latência, projetado para agentes. Apresenta novas capacidades como uso nativo de ferramentas, criação de imagens e geração de fala. Veja como o modelo Google mais avançado lida com tarefas rotineiras em nossos testes.
- Gemini 1.5 Flash – Um modelo leve e multimodal otimizado para velocidade e eficiência, capaz de processar entradas de áudio, imagens, vídeo e texto, com uma janela de contexto de até 1.048.576 tokens. Saiba mais aqui.
- Gemini 1.5 Flash-8B – Uma variante menor, mais rápida e econômica do modelo 1.5 Flash, oferecendo capacidades multimodais semelhantes com preço 50% menor e limites de taxa 2x maiores que o 1.5 Flash. Quão boa é a saída do modelo mais fraco? Descubra aqui.
- Gemini 1.5 Pro – Um modelo multimodal de porte médio otimizado para uma ampla gama de tarefas de raciocínio, capaz de processar grandes volumes de dados, incluindo entradas extensas de áudio e vídeo, com limite de entrada de 2.097.152 tokens. Veja exemplos de saída.
Como Adicionar O LLM Gemini Ao Seu Fluxo
Você notará que todos os componentes LLM possuem apenas uma saída. A entrada não passa pelo componente, pois ele apenas representa o modelo, enquanto a geração real ocorre nos Agentes de IA e nos Geradores.
O handle do LLM é sempre roxo. O handle de entrada do LLM é encontrado em qualquer componente que utilize IA para gerar texto ou processar dados. Você pode visualizar as opções clicando no handle:

Isso permite a criação de todos os tipos de ferramentas. Vamos ver o componente em ação. Aqui está um fluxo simples de chatbot AI Agent usando o Gemini 2.0 Flash Experimental para gerar respostas. Você pode pensar nele como um chatbot básico do Gemini.
Este fluxo simples de Chatbot inclui:
- Entrada do chat: Representa a mensagem que um usuário envia no chat.
- Histórico do chat: Garante que o chatbot possa lembrar e levar em conta respostas anteriores.
- Saída do chat: Representa a resposta final do chatbot.
- AI Agent: Um agente de IA autônomo que gera respostas.
- LLM Gemini: A conexão com os modelos de geração de texto do Google.

Exemplos de modelos de fluxo usando o componente LLM Gemini
Para ajudá-lo a começar rapidamente, preparamos vários modelos de fluxo de exemplo que demonstram como usar o componente LLM Gemini de forma eficaz. Esses modelos apresentam diferentes casos de uso e melhores práticas, tornando mais fácil para você entender e implementar o componente em seus próprios projetos.
Perguntas frequentes
- O que é o componente LLM Gemini no FlowHunt?
O LLM Gemini conecta os modelos Gemini do Google aos seus fluxos de IA no FlowHunt, permitindo que você escolha entre as variantes mais recentes do Gemini para geração de texto e personalize seu comportamento.
- Quais modelos Gemini são suportados?
O FlowHunt suporta Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B e Gemini 1.5 Pro—cada um oferecendo capacidades únicas para entradas de texto, imagem, áudio e vídeo.
- Como Max Tokens e Temperature afetam as respostas?
Max Tokens limita o tamanho da resposta, enquanto Temperature controla a criatividade—valores mais baixos fornecem respostas mais objetivas, valores mais altos permitem mais variedade. Ambos podem ser definidos por modelo no FlowHunt.
- É obrigatório usar o componente LLM Gemini?
Não, o uso dos componentes LLM é opcional. Todos os fluxos de IA vêm com o ChatGPT-4o por padrão, mas adicionar o LLM Gemini permite que você mude para modelos do Google e ajuste suas configurações.
Experimente o Google Gemini com o FlowHunt
Comece a criar chatbots e ferramentas de IA avançadas com Gemini e outros modelos de ponta—tudo em um só painel. Troque modelos, personalize configurações e otimize seus fluxos de trabalho.