Componente de Prompt en FlowHunt
El componente Prompt en FlowHunt especifica roles y comportamientos del bot para respuestas de IA personalizadas. Controla la salida con plantillas personalizadas para crear chatbots efectivos y contextuales.

Descripción del componente
Cómo funciona el componente Componente de Prompt en FlowHunt
Sin un buen prompt, todos los bots actuarían de la misma manera y a menudo fallarían en sus respuestas. Los prompts dan instrucciones y contexto al modelo de lenguaje, ayudándole a entender qué tipo de texto debe producir.
Descripción general del componente Prompt
El componente Prompt está diseñado para generar plantillas de prompt flexibles para su uso en flujos de trabajo de IA, permitiendo la inserción dinámica de variables y contexto. Este componente es especialmente útil en escenarios de IA conversacional, como chatbots o asistentes virtuales, donde crear prompts adaptables y conscientes del contexto es esencial.
¿Qué hace el componente?
El componente Prompt crea una plantilla de prompt que puede incorporar diversas variables dinámicas, como la entrada del usuario, el historial del chat, instrucciones del sistema y mensajes de contexto. Al aprovechar estas variables, el componente te ayuda a estructurar prompts ricos y sensibles al contexto que mejoran el rendimiento y la relevancia de los modelos o agentes de IA posteriores.
Características clave
- Plantillas dinámicas: Crea prompts que incluyen automáticamente información disponible como historial del chat, entrada del usuario y contexto.
- Variables personalizadas: Admite la inserción de variables como
{input}
,{human_input}
,{context}
,{chat_history}
,{system_message}
y{all_input_variables}
directamente en la plantilla del prompt. - Soporte para mensaje del sistema: Permite la adición de instrucciones a nivel de sistema para influir en el comportamiento de la IA.
- Reutilizable en flujos de trabajo: La salida de este componente puede usarse como entrada para otros componentes, como LLMs (Modelos de Lenguaje Grande) u otros pasos de procesamiento.
Entradas
Se pueden proporcionar las siguientes entradas al componente Prompt:
Nombre de entrada | Tipo | Requerido | Descripción |
---|---|---|---|
Historial del chat | InMemoryChatMessageHistory | No | Mensajes previos de la conversación. Útil para mantener el contexto o generar consultas alternativas. |
Contexto | Message | No | Información de contexto adicional a incluir en el prompt. |
Entrada | Message | No | La entrada o mensaje principal del usuario. |
Mensaje del sistema | String (multilínea) | No | Instrucciones a nivel de sistema para guiar el comportamiento de la IA. |
Plantilla | Prompt (multilínea) | No | La plantilla real para el prompt, soportando variables dinámicas para la personalización. |
Salidas
- Mensaje:
El componente genera un objeto de mensaje único que contiene el prompt construido, con todas las variables dinámicas reemplazadas por sus valores correspondientes.
Nombre de salida | Tipo | Descripción |
---|---|---|
Mensaje | Mensaje | El prompt generado, listo para usarse en componentes de IA posteriores. |
Ejemplos de uso
- IA conversacional: Genera automáticamente prompts para chatbots basados en la entrada del usuario, historial de la conversación y contexto adicional.
- Generación aumentada por recuperación: Personaliza prompts para tareas de recuperación incluyendo interacciones pasadas relevantes e instrucciones del sistema.
- Ajuste de instrucciones: Adapta fácilmente prompts para diferentes tareas o perfiles de usuario ajustando la plantilla y el mensaje del sistema.
¿Por qué usar este componente?
- Mejora la ingeniería de prompts: Gestiona y actualiza fácilmente plantillas de prompt sin codificarlas manualmente.
- Mejora la relevancia de la IA: Al inyectar contexto, mensajes del sistema e historial, los prompts se vuelven más informativos y precisos.
- Aumenta la flexibilidad: Soporta una amplia gama de casos de uso, desde preguntas y respuestas simples hasta conversaciones complejas y de varios turnos.
Tabla Resumen
Característica | Beneficio |
---|---|
Inyección dinámica de variables | Prompts adaptables y conscientes del contexto |
Soporte para historial del chat | Mantiene la continuidad en interacciones de varios turnos |
Integración de mensaje del sistema | Ajusta la personalidad o instrucciones de la IA |
Fácil integración en flujos de trabajo | Facilita la creación de prompts para la IA posterior |
Este componente es una herramienta fundamental para quienes crean flujos de trabajo de IA sofisticados y sensibles al contexto, donde la construcción de prompts es clave para lograr resultados de alta calidad.
Plantilla
Esta es una configuración avanzada y opcional. Puedes crear plantillas de prompt con variables específicas para controlar completamente la salida del chat. Por ejemplo:
Como experto en SEO, analiza el contenido de la URL y propón un título de hasta 65 caracteres.— Contenido de la URL —{input}Tarea: Generar un título similar a otros usando la consulta {human_input}. No cambies {human_input} en el nuevo título. NUEVO TÍTULO:
La plantilla de prompt predeterminada se ve así:
Eres un asistente de modelo de lenguaje de IA.
Tu tarea es generar una respuesta basada en la consulta de entrada.
Si se proporciona contexto, utilízalo para generar la respuesta a la consulta INPUT y HUMAN_INPUT.
Da formato a la respuesta con markdown.
RESPONDE EN EL IDIOMA: {lang}
VARIABLES:
{"session_start_time": "2025-06-03 07:35:22", "current_page_url": "https://app.flowhunt.io/aistudio/flows/de6c2e2c-d817-4b2f-af2c-12dba3f46870?ws=74be5f74-d7c5-4076-839d-8ac1771a3b75"}
ENTRADA: {input}
RESPUESTA:
El prompt predeterminado copia la misma estructura que los ajustes del componente. Puedes sobrescribir la configuración alterando y usando las variables en el campo de la plantilla. Crear tus propias plantillas te da mayor control sobre la salida.
Cómo conectar el componente Prompt a tu flujo
El prompt es un componente opcional que modifica y especifica aún más la salida final. Necesita que se conecten varios componentes:
- Historial del chat: Conectar el historial del chat no es obligatorio pero suele ser beneficioso. Recordar mensajes previos hace que las respuestas futuras sean más relevantes.
- Contexto: Cualquier salida de texto significativa puede servir como contexto. Lo más común es conectar el conocimiento de los recuperadores.
- Entrada: Solo el componente Chat Input puede conectarse aquí.
La salida de este componente es texto que puede conectarse a varios componentes. La mayoría de las veces, se sigue inmediatamente con el componente Generator para conectar el prompt a un LLM.
Ejemplo
Vamos a crear un bot muy simple. Ampliaremos el ejemplo del bot caballero medieval mencionado antes. Aunque habla de forma graciosa, su misión principal es ser un bot de atención al cliente útil, y queremos que proporcione información relevante.
Vamos a hacerle a nuestro bot una pregunta típica de atención al cliente. Preguntaremos sobre los precios de URLsLab. Para obtener una respuesta satisfactoria, necesitamos:
- Darle contexto: Para este ejemplo, usaremos el componente URL retriever para proporcionarle una página con toda la información necesaria.
- Conectar la entrada: La entrada siempre es el mensaje humano del componente Chat Input.
- Historial del chat: Es opcional, pero lo conectaremos en este caso concreto.
- Plantilla: Mantendremos el prompt, “Eres un bot de atención al cliente servicial que habla como un caballero medieval.”. Los prompts pueden ser mucho más elaborados que esto. Consulta nuestra biblioteca de prompts para inspirarte.
- Agregar Generator: Queremos que el bot tenga habilidades conversacionales. Para ello, conecta el Generator. El Prompt sirve como entrada para el generator.
El flujo resultante se verá algo así:

Es hora de poner a prueba los conocimientos de nuestro bot caballero medieval. La URL que le dimos es la de precios de URLsLab. Así que vamos a preguntarle al respecto:

Ahora nuestro bot usa un lenguaje pomposo y antiguo para responder preguntas básicas. Pero lo más importante, observa cómo el bot se adhiere a su rol central como bot de atención al cliente útil. Por último, utiliza correctamente la información de la URL especificada.
Ejemplos de plantillas de flujo utilizando el componente Componente de Prompt en FlowHunt
Para ayudarle a comenzar rápidamente, hemos preparado varios ejemplos de plantillas de flujo que demuestran cómo utilizar el componente Componente de Prompt en FlowHunt de manera efectiva. Estas plantillas muestran diferentes casos de uso y mejores prácticas, facilitando la comprensión e implementación del componente en sus propios proyectos.
Mostrando 1 a 60 de 69 resultados
Preguntas frecuentes
- ¿Qué es el componente Prompt?
El componente Prompt proporciona instrucciones y contexto al bot, asegurando que responda de la manera deseada.
- ¿Siempre necesito incluir Prompt en mis flujos?
Incluirlo es una gran idea para muchos casos de uso, pero el componente es opcional.
- ¿Qué es el mensaje del sistema?
Es un campo de texto editable donde defines la personalidad y el rol del bot. Simplemente completa la plantilla: 'Eres un {rol} que {comportamiento}'. Por ejemplo, 'Eres un bot de atención al cliente servicial que habla como un caballero medieval.'
- ¿Debo siempre incluir Prompt en mis flujos?
Sin duda es una gran idea incluirlo para muchos casos de uso, pero el componente es opcional.
Prueba el componente Prompt de FlowHunt
Comienza a crear chatbots de IA personalizados y conscientes del contexto con la función de Prompt intuitiva de FlowHunt. Define roles, comportamientos y controla la salida para automatizaciones más inteligentes.