Descripción del componente
Cómo funciona el componente LLM Meta AI
¿Qué es el componente LLM Meta AI?
El componente LLM Meta AI conecta la familia de modelos Claude a tu Flow. Mientras que los Generadores y Agentes son donde ocurre la verdadera magia, los componentes LLM te permiten controlar el modelo utilizado. Todos los componentes vienen con ChatGPT-4 por defecto. Puedes conectar este componente si deseas cambiar el modelo o tener mayor control sobre él.

Recuerda que conectar un Componente LLM es opcional. Todos los componentes que utilizan un LLM vienen con ChatGPT-4o como predeterminado. Los componentes LLM te permiten cambiar el modelo y ajustar los parámetros del mismo.
Ajustes del Componente LLM Meta AI
Máximo de tokens
Los tokens representan las unidades individuales de texto que el modelo procesa y genera. El uso de tokens varía según el modelo, y un solo token puede ser desde palabras o subpalabras hasta un solo carácter. Los modelos suelen cobrarse por millones de tokens.
El ajuste de máximo de tokens limita el número total de tokens que se pueden procesar en una sola interacción o solicitud, asegurando que las respuestas se generen dentro de límites razonables. El límite predeterminado es de 4,000 tokens, el tamaño óptimo para resumir documentos y varias fuentes para generar una respuesta.
Temperatura
La temperatura controla la variabilidad de las respuestas, con un rango de 0 a 1.
Una temperatura de 0.1 hará que las respuestas sean muy directas pero potencialmente repetitivas y pobres.
Una temperatura alta de 1 permite la máxima creatividad en las respuestas, pero crea el riesgo de respuestas irrelevantes o incluso alucinatorias.
Por ejemplo, la temperatura recomendada para un bot de atención al cliente es entre 0.2 y 0.5. Este nivel mantiene las respuestas relevantes y ajustadas al guion, permitiendo cierta variación natural.
Modelo
Este es el selector de modelo. Aquí encontrarás todos los modelos compatibles de Meta AI. Somos compatibles con los modelos ligeros de código abierto Llama de Meta. Estos modelos están diseñados para despliegues eficientes en dispositivos y en el edge:
- Llama 3.2 1B – El modelo 1B contiene aproximadamente 1.230 millones de parámetros, con una longitud de contexto de hasta 128,000 tokens. El modelo está optimizado para tareas como resumen, seguimiento de instrucciones y reescritura, por lo que es adecuado para aplicaciones móviles y dispositivos integrados. Aprende más sobre este modelo y cómo “piensa” en este artículo.
- Llama 3.2. 3B – El modelo 3B tiene unos 3,210 millones de parámetros con una longitud de contexto de hasta 128,000 tokens. Descubre más sobre cómo este modelo maneja diversas tareas.
Cómo añadir el LLM Meta AI a tu Flow
Notarás que todos los componentes LLM solo tienen un conector de salida. La entrada no pasa a través del componente, ya que solo representa el modelo, mientras que la generación real ocurre en los Agentes de IA y los Generadores.
El conector LLM siempre es de color púrpura. El conector de entrada LLM se encuentra en cualquier componente que use IA para generar texto o procesar datos. Puedes ver las opciones haciendo clic en el conector:

Esto te permite crear todo tipo de herramientas. Veamos el componente en acción. Aquí tienes un Flow sencillo de chatbot Agente de IA que utiliza Llama 3.2 1B de Meta AI para generar respuestas. Puedes pensar en él como un chatbot básico de Llama.
Este sencillo Flow de Chatbot incluye:
- Entrada de chat: Representa el mensaje que un usuario envía en el chat.
- Historial de chat: Asegura que el chatbot recuerde y tenga en cuenta respuestas previas.
- Salida de chat: Representa la respuesta final del chatbot.
- Agente de IA: Un agente de IA autónomo que genera respuestas.
- LLM Meta AI: La conexión con los modelos de generación de texto de Meta.

Preguntas frecuentes
- ¿Qué es el componente LLM Meta AI en FlowHunt?
El componente LLM Meta AI te permite conectar los modelos Llama de Meta y otros generadores de texto/imágenes a tus flujos, facilitando la selección de modelos y la configuración avanzada como el máximo de tokens y la temperatura.
- ¿Qué modelos de Meta admite FlowHunt?
FlowHunt es compatible con los modelos Llama de código abierto de Meta, incluidos Llama 3.2 1B y 3B, optimizados para eficiencia, resumen y despliegues en dispositivos.
- ¿Cómo configuro los ajustes de LLM Meta AI?
Puedes ajustar parámetros como el máximo de tokens (limita la longitud de la respuesta), temperatura (controla la creatividad de las respuestas) y selección de modelo directamente desde el panel de FlowHunt para cada componente.
- ¿Es necesario añadir el componente LLM Meta AI en cada flujo?
No, añadir el componente LLM Meta AI es opcional. Por defecto, los componentes usan ChatGPT-4o, pero puedes cambiar a Llama u otros modelos para tener más control o para casos de uso específicos.
Prueba el LLM Meta AI de FlowHunt
Empieza a crear chatbots y herramientas de IA más inteligentes con los modelos Llama de Meta y decenas de otros generadores de IA, todo en una sola plataforma.