LLM Gemini

Desbloqueie o poder dos modelos Gemini do Google no FlowHunt—troque modelos de IA, controle configurações e crie chatbots de IA mais inteligentes com facilidade.

LLM Gemini

Descrição do componente

Como o componente LLM Gemini funciona

O que é o componente LLM Gemini?

O componente LLM Gemini conecta os modelos Gemini do Google ao seu fluxo. Enquanto os Geradores e Agentes são onde a mágica realmente acontece, os componentes LLM permitem que você controle o modelo utilizado. Todos os componentes vêm com o ChatGPT-4 por padrão. Você pode conectar este componente se desejar trocar o modelo ou ter mais controle sobre ele.

Gemini component

Lembre-se de que conectar um Componente LLM é opcional. Todos os componentes que usam um LLM vêm com o ChatGPT-4o como padrão. Os componentes LLM permitem que você troque o modelo e controle as configurações do modelo.

Configurações do Componente LLM Gemini

Max Tokens

Tokens representam as unidades individuais de texto que o modelo processa e gera. O uso de tokens varia conforme o modelo, e um único token pode ser qualquer coisa, desde palavras ou subpalavras até um único caractere. Os modelos geralmente têm preços baseados em milhões de tokens.

A configuração de max tokens limita o número total de tokens que podem ser processados em uma única interação ou solicitação, garantindo que as respostas sejam geradas dentro de limites razoáveis. O limite padrão é de 4.000 tokens, o tamanho ideal para resumir documentos e várias fontes para gerar uma resposta.

Temperature

Temperature controla a variabilidade das respostas, variando de 0 a 1.

Uma temperature de 0,1 fará com que as respostas sejam muito diretas, mas potencialmente repetitivas e pouco desenvolvidas.

Uma temperature alta de 1 permite máxima criatividade nas respostas, mas cria o risco de respostas irrelevantes ou até mesmo alucinatórias.

Por exemplo, a temperature recomendada para um bot de atendimento ao cliente é entre 0,2 e 0,5. Esse nível deve manter as respostas relevantes e dentro do roteiro, ao mesmo tempo permitindo uma variação natural nas respostas.

Modelo

Este é o seletor de modelos. Aqui, você encontrará todos os modelos Gemini suportados do Google. Nós suportamos todos os modelos Gemini mais recentes:

  • Gemini 2.0 Flash Experimental – Um modelo avançado e de baixa latência, projetado para agentes. Apresenta novas capacidades como uso nativo de ferramentas, criação de imagens e geração de fala. Veja como o modelo Google mais avançado lida com tarefas rotineiras em nossos testes.
  • Gemini 1.5 Flash – Um modelo leve e multimodal otimizado para velocidade e eficiência, capaz de processar entradas de áudio, imagens, vídeo e texto, com uma janela de contexto de até 1.048.576 tokens. Saiba mais aqui.
  • Gemini 1.5 Flash-8B – Uma variante menor, mais rápida e econômica do modelo 1.5 Flash, oferecendo capacidades multimodais semelhantes com preço 50% menor e limites de taxa 2x maiores que o 1.5 Flash. Quão boa é a saída do modelo mais fraco? Descubra aqui.
  • Gemini 1.5 Pro – Um modelo multimodal de porte médio otimizado para uma ampla gama de tarefas de raciocínio, capaz de processar grandes volumes de dados, incluindo entradas extensas de áudio e vídeo, com limite de entrada de 2.097.152 tokens. Veja exemplos de saída.

Como Adicionar O LLM Gemini Ao Seu Fluxo

Você notará que todos os componentes LLM possuem apenas uma saída. A entrada não passa pelo componente, pois ele apenas representa o modelo, enquanto a geração real ocorre nos Agentes de IA e nos Geradores.

O handle do LLM é sempre roxo. O handle de entrada do LLM é encontrado em qualquer componente que utilize IA para gerar texto ou processar dados. Você pode visualizar as opções clicando no handle:

Gemini compatibility

Isso permite a criação de todos os tipos de ferramentas. Vamos ver o componente em ação. Aqui está um fluxo simples de chatbot AI Agent usando o Gemini 2.0 Flash Experimental para gerar respostas. Você pode pensar nele como um chatbot básico do Gemini.

Este fluxo simples de Chatbot inclui:

  • Entrada do chat: Representa a mensagem que um usuário envia no chat.
  • Histórico do chat: Garante que o chatbot possa lembrar e levar em conta respostas anteriores.
  • Saída do chat: Representa a resposta final do chatbot.
  • AI Agent: Um agente de IA autônomo que gera respostas.
  • LLM Gemini: A conexão com os modelos de geração de texto do Google.
Gemini chatbot

Exemplos de modelos de fluxo usando o componente LLM Gemini

Para ajudá-lo a começar rapidamente, preparamos vários modelos de fluxo de exemplo que demonstram como usar o componente LLM Gemini de forma eficaz. Esses modelos apresentam diferentes casos de uso e melhores práticas, tornando mais fácil para você entender e implementar o componente em seus próprios projetos.

Perguntas frequentes

O que é o componente LLM Gemini no FlowHunt?

O LLM Gemini conecta os modelos Gemini do Google aos seus fluxos de IA no FlowHunt, permitindo que você escolha entre as variantes mais recentes do Gemini para geração de texto e personalize seu comportamento.

Quais modelos Gemini são suportados?

O FlowHunt suporta Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B e Gemini 1.5 Pro—cada um oferecendo capacidades únicas para entradas de texto, imagem, áudio e vídeo.

Como Max Tokens e Temperature afetam as respostas?

Max Tokens limita o tamanho da resposta, enquanto Temperature controla a criatividade—valores mais baixos fornecem respostas mais objetivas, valores mais altos permitem mais variedade. Ambos podem ser definidos por modelo no FlowHunt.

É obrigatório usar o componente LLM Gemini?

Não, o uso dos componentes LLM é opcional. Todos os fluxos de IA vêm com o ChatGPT-4o por padrão, mas adicionar o LLM Gemini permite que você mude para modelos do Google e ajuste suas configurações.

Experimente o Google Gemini com o FlowHunt

Comece a criar chatbots e ferramentas de IA avançadas com Gemini e outros modelos de ponta—tudo em um só painel. Troque modelos, personalize configurações e otimize seus fluxos de trabalho.

Saiba mais