Descripción del componente
Cómo funciona el componente LLM OpenAI
¿Qué es el componente LLM Open AI?
El componente LLM OpenAI conecta modelos ChatGPT a tu flujo. Mientras que los Generadores y Agentes son donde ocurre la verdadera magia, los componentes LLM te permiten controlar el modelo utilizado. Todos los componentes vienen con ChatGPT-4 por defecto. Puedes conectar este componente si deseas cambiar el modelo o tener mayor control sobre él.

Configuración del componente LLM OpenAI
Nombre del modelo
Este es el selector de modelo. Aquí encontrarás todos los modelos OpenAI que FlowHunt admite. ChatGPT ofrece una lista completa de modelos con diferentes capacidades y precios. Por ejemplo, usar el GPT-3.5, menos avanzado y más antiguo, costará menos que usar el nuevo 4o, pero la calidad y velocidad de la salida será inferior.
Modelos de OpenAI disponibles en FlowHunt:
- GPT-4o – El modelo más reciente y popular de OpenAI. Un modelo multimodal capaz de procesar texto, imágenes y audio, y de buscar en la web. Más información aquí.
- GPT-4o Mini – Una versión más pequeña y económica de GPT-4o, que ofrece un rendimiento mejorado respecto a GPT-3.5 Turbo, con una ventana de contexto de 128K y una reducción de costes de más del 60%. Descubre cómo maneja las tareas.
- o1 Mini – Una versión simplificada del modelo o1, diseñada para tareas de razonamiento complejo, ofreciendo un equilibrio entre rendimiento y eficiencia. Mira cómo se comportó en nuestras pruebas.
- o1 Preview – Un modelo avanzado con capacidades de razonamiento mejoradas, excelente en la resolución de problemas complejos, especialmente en programación y razonamiento científico, disponible en versión previa. Observa cómo piensa y resuelve tareas.
- gpt-4-vision-preview – Modelo en versión previa que acepta entradas de texto e imagen, soportando funciones como modo JSON y llamadas de función en paralelo, mejorando las capacidades de interacción multimodal. Más información aquí.
- GPT-3.5 Turbo – Una versión heredada de GPT, ideal para tareas sencillas y económicas. Consulta nuestras pruebas de Agentes de IA para compararlo con los modelos más nuevos.
Al elegir el modelo adecuado para la tarea, considera la calidad y velocidad que requiere. Los modelos antiguos son ideales para ahorrar en tareas sencillas y chats en lote. Si generas contenido o buscas en la web, te sugerimos optar por un modelo más nuevo y refinado.
Máx. tokens
Los tokens representan las unidades individuales de texto que el modelo procesa y genera. El uso de tokens varía según el modelo, y un solo token puede ser desde una palabra o subpalabra hasta un carácter. Los modelos suelen cobrarse por millones de tokens.
El ajuste de tokens máximos limita el número total de tokens que pueden procesarse en una sola interacción o solicitud, asegurando que las respuestas se generen dentro de límites razonables. El límite predeterminado es de 4.000 tokens, que es el tamaño óptimo para resumir documentos y varias fuentes para generar una respuesta.
Temperatura
La temperatura controla la variabilidad de las respuestas, en un rango de 0 a 1.
Una temperatura de 0.1 hará que las respuestas sean muy directas, pero potencialmente repetitivas y deficientes.
Una temperatura alta de 1 permite la máxima creatividad en las respuestas, pero crea el riesgo de respuestas irrelevantes o incluso alucinatorias.
Por ejemplo, la temperatura recomendada para un bot de atención al cliente es entre 0.2 y 0.5. Este nivel debería mantener las respuestas relevantes y en el guion, permitiendo a la vez una variación natural en las respuestas.
Cómo añadir LLM OpenAI a tu flujo
Notarás que todos los componentes LLM solo tienen un conector de salida. La entrada no pasa a través del componente, ya que solo representa el modelo, mientras que la generación real ocurre en los Agentes de IA y Generadores.
El conector de LLM es siempre púrpura. El conector de entrada de LLM se encuentra en cualquier componente que use IA para generar texto o procesar datos. Puedes ver las opciones haciendo clic en el conector:

Esto te permite crear todo tipo de herramientas. Veamos el componente en acción. Aquí tienes un flujo sencillo de chatbot potenciado por un Agente que utiliza o1 Preview para generar respuestas. Puedes considerarlo como un chatbot básico de ChatGPT.
Este sencillo flujo de Chatbot incluye:
- Entrada de chat: Representa el mensaje que un usuario envía en el chat.
- Historial de chat: Asegura que el chatbot pueda recordar y tener en cuenta respuestas anteriores.
- Salida de chat: Representa la respuesta final del chatbot.
- Agente de IA: Un agente de IA autónomo que genera respuestas.
- LLM OpenAI: La conexión con los modelos de generación de texto de OpenAI.
Ejemplos de plantillas de flujo utilizando el componente LLM OpenAI
Para ayudarle a comenzar rápidamente, hemos preparado varios ejemplos de plantillas de flujo que demuestran cómo utilizar el componente LLM OpenAI de manera efectiva. Estas plantillas muestran diferentes casos de uso y mejores prácticas, facilitando la comprensión e implementación del componente en sus propios proyectos.
Preguntas frecuentes
- ¿Qué son los LLM?
Los modelos de lenguaje grande son tipos de IA entrenados para procesar, comprender y generar texto similar al humano. Un ejemplo común es ChatGPT, que puede proporcionar respuestas elaboradas a casi cualquier consulta.
- ¿Puedo conectar un LLM directamente a la salida de chat?
No, el componente LLM solo es una representación del modelo de IA. Cambia el modelo que usará el Generador. El LLM predeterminado en el Generador es ChatGPT-4o.
- ¿Qué LLMs están disponibles en Flows?
Por el momento, solo el componente OpenAI está disponible. Planeamos agregar más en el futuro.
- ¿Necesito agregar un LLM a mi flujo?
No, los Flows son una característica versátil con muchos casos de uso sin necesidad de un LLM. Agregas un LLM si quieres crear un chatbot conversacional que genere respuestas de texto libremente.
- ¿El componente LLM OpenAI genera la respuesta?
No exactamente. El componente solo representa el modelo y crea reglas para que las siga. Es el componente generador el que lo conecta a la entrada y ejecuta la consulta a través del LLM para crear la salida.
¿Listo para crear tu propia IA?
Chatbots inteligentes y herramientas de IA en un solo lugar. Conecta bloques intuitivos para convertir tus ideas en Flujos automatizados.