Descripción del componente
Cómo funciona el componente LLM xAI
¿Qué es el componente LLM xAI?
El componente LLM xAI conecta el modelo Grok a tu flujo. Si bien los Generadores y Agentes son donde ocurre la verdadera magia, los componentes LLM te permiten controlar el modelo utilizado. Todos los componentes vienen con ChatGPT-4 por defecto. Puedes conectar este componente si deseas cambiar el modelo o tener más control sobre él.

Recuerda que conectar un componente LLM es opcional. Todos los componentes que usan un LLM vienen con ChatGPT-4o como predeterminado. Los componentes LLM te permiten cambiar el modelo y controlar la configuración del modelo.
Configuración del componente LLM xAI
Máximo de tokens
Los tokens representan las unidades individuales de texto que el modelo procesa y genera. El uso de tokens varía según el modelo, y un solo token puede ser desde palabras o subpalabras hasta un solo carácter. Los modelos suelen tener un precio por millones de tokens.
La configuración de máximo de tokens limita el número total de tokens que pueden procesarse en una sola interacción o solicitud, asegurando que las respuestas se generen dentro de límites razonables. El límite predeterminado es de 4,000 tokens, que es el tamaño óptimo para resumir documentos y varias fuentes para generar una respuesta.
Temperatura
La temperatura controla la variabilidad de las respuestas, de 0 a 1.
Una temperatura de 0.1 hará que las respuestas sean muy directas pero potencialmente repetitivas y pobres.
Una temperatura alta de 1 permite la máxima creatividad en las respuestas, pero crea el riesgo de respuestas irrelevantes o incluso alucinatorias.
Por ejemplo, la temperatura recomendada para un bot de atención al cliente es entre 0.2 y 0.5. Este nivel debería mantener las respuestas relevantes y al guion, permitiendo a la vez una variación natural en las respuestas.
Modelo
Este es el selector de modelos. Aquí encontrarás todos los modelos compatibles del proveedor xAI. El modelo estrella de texto de xAI se llama Grok. Actualmente, solo admitimos el modelo grok-beta, ya que es el único que se ha lanzado para uso público por API.
¿Quieres saber más sobre Grok-beta y ver cómo se compara con otros modelos? Consulta este artículo.
Cómo agregar LLM xAI a tu flujo
Notarás que todos los componentes LLM solo tienen un conector de salida. La entrada no pasa por el componente, ya que solo representa el modelo, mientras que la generación real ocurre en los Agentes de IA y Generadores.
El conector LLM es siempre morado. El conector de entrada LLM se encuentra en cualquier componente que utilice IA para generar texto o procesar datos. Puedes ver las opciones haciendo clic en el conector:

Esto te permite crear todo tipo de herramientas. Veamos el componente en acción. Este es un flujo sencillo de chatbot Agente de IA que utiliza el grok-beta de xAI para generar respuestas. Puedes pensarlo como un chatbot básico de xAI.
Este flujo simple de Chatbot incluye:
- Entrada de chat: Representa el mensaje que un usuario envía en el chat.
- Historial de chat: Asegura que el chatbot pueda recordar y tener en cuenta respuestas pasadas.
- Salida de chat: Representa la respuesta final del chatbot.
- Agente de IA: Un agente de IA autónomo que genera respuestas.
- LLM xAI: La conexión a los modelos de generación de texto de xAI.

Preguntas frecuentes
- ¿Qué es LLM xAI en FlowHunt?
LLM xAI es un componente de FlowHunt que te permite conectar y controlar los modelos de generación de texto de proveedores xAI como Grok-beta dentro de tus flujos y chatbots de IA.
- ¿Qué modelos de xAI admite FlowHunt?
Actualmente, FlowHunt admite el modelo grok-beta de xAI, y se agregarán más modelos a medida que estén disponibles para uso público por API.
- ¿Qué configuraciones puedo controlar con el componente LLM xAI?
Puedes ajustar el máximo de tokens, la temperatura (variabilidad de la respuesta) y seleccionar entre los modelos xAI disponibles para adaptar el comportamiento de tu chatbot o herramienta de IA.
- ¿Es necesario conectar el componente LLM xAI en cada chatbot?
No, es opcional. Por defecto, los componentes utilizan ChatGPT-4o, pero puedes conectar LLM xAI para cambiar a modelos xAI o tener más control.
- ¿Cómo agrego el componente LLM xAI a mi proyecto FlowHunt?
Simplemente agrega el componente LLM a tu flujo; actúa como selector de modelo. La generación real de texto ocurre en los Agentes de IA y Generadores conectados a él.
Prueba hoy LLM xAI de FlowHunt
Comienza a crear chatbots y herramientas de IA más inteligentes con FlowHunt. Conéctate a los principales modelos de xAI como Grok-beta en un panel flexible y sin código.