Descripción del componente
Cómo funciona el componente LLM Gemini
¿Qué es el componente LLM Gemini?
El componente LLM Gemini conecta los modelos Gemini de Google con tu flujo. Aunque la magia real ocurre en los Generadores y Agentes, los componentes LLM te permiten controlar el modelo utilizado. Todos los componentes incluyen ChatGPT-4 por defecto. Puedes conectar este componente si deseas cambiar el modelo o tener un mayor control sobre él.

Recuerda que conectar un Componente LLM es opcional. Todos los componentes que utilizan un LLM traen ChatGPT-4o como predeterminado. Los componentes LLM te permiten cambiar el modelo y controlar sus configuraciones.
Configuración del componente LLM Gemini
Max Tokens
Los tokens representan las unidades individuales de texto que el modelo procesa y genera. El uso de tokens varía según los modelos, y un solo token puede ser desde palabras o subpalabras hasta un solo carácter. Normalmente, los modelos se cobran por millones de tokens.
La configuración de max tokens limita el número total de tokens que pueden procesarse en una sola interacción o solicitud, asegurando que las respuestas se generen dentro de límites razonables. El límite predeterminado es de 4,000 tokens, el tamaño óptimo para resumir documentos y varias fuentes para generar una respuesta.
Temperatura
La temperatura controla la variabilidad de las respuestas, en un rango de 0 a 1.
Una temperatura de 0.1 hará que las respuestas sean muy directas pero potencialmente repetitivas y deficientes.
Una temperatura alta de 1 permite la máxima creatividad en las respuestas, pero con el riesgo de respuestas irrelevantes o incluso alucinatorias.
Por ejemplo, la temperatura recomendada para un bot de atención al cliente es entre 0.2 y 0.5. Este nivel debería mantener las respuestas relevantes y ajustadas al guion, permitiendo al mismo tiempo una variación natural.
Modelo
Este es el selector de modelos. Aquí encontrarás todos los modelos Gemini compatibles de Google. Somos compatibles con los modelos Gemini más recientes:
- Gemini 2.0 Flash Experimental – Un modelo avanzado y de baja latencia diseñado para agentes. Incluye nuevas capacidades como uso de herramientas nativas, creación de imágenes y generación de voz. Mira cómo el modelo más avanzado de Google resolvió tareas rutinarias en nuestras pruebas.
- Gemini 1.5 Flash – Un modelo multimodal ligero optimizado para velocidad y eficiencia, capaz de procesar entradas de audio, imágenes, video y texto, con una ventana de contexto de hasta 1,048,576 tokens. Más información aquí.
- Gemini 1.5 Flash-8B – Una variante más pequeña, rápida y eficiente en costos del modelo 1.5 Flash, que ofrece capacidades multimodales similares con un precio 50% menor y el doble de límites de uso en comparación con el 1.5 Flash. ¿Qué tan bueno es el resultado del modelo más básico? Descúbrelo aquí.
- Gemini 1.5 Pro – Un modelo multimodal de tamaño medio optimizado para una amplia gama de tareas de razonamiento, capaz de procesar grandes cantidades de datos, incluyendo audio y video extendidos, con un límite de entrada de 2,097,152 tokens. Ver ejemplos de salida.
Cómo agregar el LLM Gemini a tu flujo
Notarás que todos los componentes LLM solo tienen un conector de salida. La entrada no pasa a través del componente, ya que solo representa el modelo, mientras que la generación real ocurre en los Agentes y Generadores de IA.
El conector LLM es siempre de color morado. El conector de entrada LLM se encuentra en cualquier componente que use IA para generar texto o procesar datos. Puedes ver las opciones haciendo clic en el conector:

Esto te permite crear todo tipo de herramientas. Veamos el componente en acción. Aquí tienes un flujo simple de chatbot IA que utiliza Gemini 2.0 Flash Experimental para generar respuestas. Puedes verlo como un chatbot básico de Gemini.
Este flujo de Chatbot simple incluye:
- Entrada de chat: Representa el mensaje que un usuario envía en el chat.
- Historial de chat: Asegura que el chatbot pueda recordar y tener en cuenta respuestas anteriores.
- Salida de chat: Representa la respuesta final del chatbot.
- Agente de IA: Un agente autónomo que genera respuestas.
- LLM Gemini: La conexión con los modelos de generación de texto de Google.

Ejemplos de plantillas de flujo utilizando el componente LLM Gemini
Para ayudarle a comenzar rápidamente, hemos preparado varios ejemplos de plantillas de flujo que demuestran cómo utilizar el componente LLM Gemini de manera efectiva. Estas plantillas muestran diferentes casos de uso y mejores prácticas, facilitando la comprensión e implementación del componente en sus propios proyectos.
Preguntas frecuentes
- ¿Qué es el componente LLM Gemini en FlowHunt?
LLM Gemini conecta los modelos Gemini de Google con tus flujos de IA en FlowHunt, permitiéndote elegir entre las últimas variantes de Gemini para generación de texto y personalizar su comportamiento.
- ¿Qué modelos Gemini son compatibles?
FlowHunt es compatible con Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B y Gemini 1.5 Pro—cada uno ofreciendo capacidades únicas para entradas de texto, imagen, audio y video.
- ¿Cómo afectan Max Tokens y Temperature las respuestas?
Max Tokens limita la longitud de la respuesta, mientras que Temperature controla la creatividad—valores bajos generan respuestas más enfocadas, valores altos permiten mayor variedad. Ambos pueden configurarse por modelo en FlowHunt.
- ¿Es obligatorio usar el componente LLM Gemini?
No, el uso de componentes LLM es opcional. Todos los flujos de IA incluyen ChatGPT-4o por defecto, pero agregar LLM Gemini te permite cambiar a modelos de Google y ajustar sus configuraciones.
Prueba Google Gemini con FlowHunt
Comienza a crear chatbots y herramientas de IA avanzadas con Gemini y otros modelos líderes—todo desde un solo panel. Cambia de modelo, personaliza configuraciones y optimiza tus flujos de trabajo.