Composant Prompt dans FlowHunt
Le composant Prompt dans FlowHunt définit les rôles et comportements du bot pour des réponses IA personnalisées. Contrôlez la sortie avec des modèles personnalisés pour créer des chatbots efficaces et contextuels.

Description du composant
Comment fonctionne le composant Composant Prompt dans FlowHunt
Sans un bon prompt, tous les bots se comporteraient de la même manière et manqueraient souvent leur cible dans leurs réponses. Les prompts donnent des instructions et du contexte au modèle de langage, l’aidant à comprendre quel type de texte il doit produire.
Aperçu du composant Prompt
Le composant Prompt est conçu pour générer des modèles de prompts flexibles à utiliser dans des workflows IA, permettant l’insertion dynamique de variables et de contexte. Ce composant est particulièrement utile dans les scénarios d’IA conversationnelle, tels que les chatbots ou assistants virtuels, où la création de prompts adaptables et sensibles au contexte est essentielle.
À quoi sert le composant ?
Le composant Prompt crée un modèle de prompt qui peut incorporer diverses variables dynamiques, telles que l’entrée utilisateur, l’historique de conversation, les instructions système et les messages de contexte. En exploitant ces variables, le composant vous aide à structurer des prompts riches et sensibles au contexte, améliorant la performance et la pertinence des modèles ou agents IA en aval.
Fonctionnalités clés
- Modèles dynamiques : Créez des prompts qui incluent automatiquement les informations disponibles comme l’historique de discussion, l’entrée utilisateur et le contexte.
- Variables personnalisées : Prend en charge l’insertion de variables telles que
{input}
,{human_input}
,{context}
,{chat_history}
,{system_message}
et{all_input_variables}
directement dans le modèle de prompt. - Prise en charge du message système : Permet l’ajout d’instructions de niveau système pour influencer le comportement de l’IA.
- Réutilisable dans les workflows : La sortie de ce composant peut être utilisée comme entrée pour d’autres composants, tels que les LLM (Large Language Models) ou d’autres étapes de traitement.
Entrées
Les entrées suivantes peuvent être fournies au composant Prompt :
Nom de l’entrée | Type | Obligatoire | Description |
---|---|---|---|
Historique Chat | InMemoryChatMessageHistory | Non | Messages précédents de la conversation. Utile pour maintenir le contexte ou générer des requêtes alternatives. |
Contexte | Message | Non | Informations contextuelles supplémentaires à inclure dans le prompt. |
Entrée | Message | Non | L’entrée ou le message principal de l’utilisateur. |
Message Système | String (multiligne) | Non | Instructions de niveau système pour guider le comportement de l’IA. |
Modèle | Prompt (multiligne) | Non | Le modèle réel pour le prompt, prenant en charge des variables dynamiques pour la personnalisation. |
Sorties
- Message :
Le composant produit un objet message unique qui contient le prompt construit, avec toutes les variables dynamiques remplacées par leurs valeurs correspondantes.
Nom de sortie | Type | Description |
---|---|---|
Message | Message | Le prompt généré, prêt à être utilisé dans les composants IA en aval. |
Exemples de cas d’utilisation
- IA conversationnelle : Générer automatiquement des prompts pour les chatbots en fonction de l’entrée utilisateur, de l’historique de conversation et du contexte supplémentaire.
- Récupération augmentée : Personnaliser les prompts pour les tâches de récupération en incluant les interactions passées pertinentes et les instructions système.
- Ajustement d’instructions : Adapter facilement les prompts pour différentes tâches ou profils utilisateurs en ajustant le modèle et le message système.
Pourquoi utiliser ce composant ?
- Améliore l’ingénierie des prompts : Gérez et mettez à jour facilement les modèles de prompts sans codage en dur.
- Rend l’IA plus pertinente : En injectant du contexte, des messages système et de l’historique, les prompts deviennent plus informatifs et précis.
- Augmente la flexibilité : Prend en charge un large éventail de cas d’utilisation, de la simple FAQ aux conversations complexes à plusieurs tours.
Tableau récapitulatif
Fonctionnalité | Avantage |
---|---|
Injection dynamique de variables | Prompts contextuels et adaptables |
Prise en charge de l’historique | Maintient la continuité dans les interactions |
Intégration du message système | Affine la personnalité ou les instructions de l’IA |
Intégration facile dans les flux | Simplifie la création de prompts pour l’IA |
Ce composant est un outil fondamental pour tous ceux qui construisent des workflows IA sophistiqués et sensibles au contexte, où la construction du prompt est la clé pour obtenir des résultats de haute qualité.
Modèle
Ceci est un paramètre avancé et optionnel. Vous pouvez créer des modèles de prompt avec des variables spécifiques pour contrôler totalement la sortie du chat. Par exemple :
En tant qu’expert SEO, analyse le contenu de l’URL et propose un titre de 65 caractères maximum.— Contenu de l’URL —{input}Tâche : Génère un titre similaire aux autres en utilisant la requête {human_input}. Ne modifie pas {human_input} dans le nouveau titre. NOUVEAU TITRE :
Le modèle de prompt par défaut ressemble à ceci :
Vous êtes un assistant IA modèle de langage.
Votre tâche est de générer une réponse basée sur la requête d’entrée.
Si un contexte est fourni, utilisez-le pour générer la réponse à la requête INPUT et HUMAN_INPUT.
Formatez la réponse en markdown.
RÉPONSE DANS LA LANGUE : {lang}
VARIABLES :
{"session_start_time": "2025-06-03 07:35:22", "current_page_url": "https://app.flowhunt.io/aistudio/flows/de6c2e2c-d817-4b2f-af2c-12dba3f46870?ws=74be5f74-d7c5-4076-839d-8ac1771a3b75"}
INPUT : {input}
RÉPONSE :
Le prompt par défaut reprend la même structure que les paramètres du composant. Vous pouvez remplacer les paramètres en modifiant et en utilisant les variables dans le champ modèle. Créer vos propres modèles vous donne un contrôle total sur la sortie.
Comment connecter le composant Prompt à votre flux
Le prompt est un composant optionnel qui modifie et précise davantage la sortie finale. Il a besoin de plusieurs composants connectés :
- Historique Chat : Connecter l’historique n’est pas obligatoire mais souvent bénéfique. Se souvenir des messages précédents rend les réponses futures plus pertinentes.
- Contexte : Tout texte pertinent peut servir de contexte. Le choix le plus courant est de relier les connaissances provenant des récupérateurs.
- Entrée : Seul le composant Chat Input peut être connecté ici.
La sortie de ce composant est du texte qui peut être connecté à divers composants. La plupart du temps, vous enchaînez immédiatement avec le composant Générateur pour transmettre le prompt à un LLM.
Exemple
Créons un bot très simple. Prenons l’exemple du bot chevalier médiéval évoqué plus haut. Bien qu’il parle de façon amusante, sa mission principale est d’être un bot d’assistance client serviable, et nous voulons qu’il fournisse des informations pertinentes.
Posons à notre bot une question typique du service client. Nous demanderons les tarifs de URLsLab. Pour obtenir une réponse réussie, il nous faut :
- Lui donner du contexte : Dans cet exemple, utilisons le composant récupérateur d’URL pour lui fournir une page contenant toutes les informations nécessaires.
- Connecter l’entrée : L’entrée est toujours le message humain provenant du composant Chat Input.
- Historique Chat : Optionnel mais connectons-le dans ce cas précis.
- Modèle : Conservons le prompt, « Vous êtes un bot d’assistance client serviable qui parle comme un chevalier médiéval. ». Les prompts peuvent être bien plus élaborés. Consultez notre bibliothèque de prompts pour l’inspiration.
- Ajouter le Générateur : Nous voulons que le bot ait des capacités conversationnelles. Pour cela, connectez le Générateur. Le Prompt sert d’entrée au générateur.
Le flux obtenu ressemblera à ceci :

Il est temps de tester les connaissances de notre bot chevalier médiéval. L’URL que nous lui avons fournie correspond à la tarification de URLsLab. Demandons-lui à ce sujet :

Notre bot utilise désormais un langage ancien et pompeux pour répondre aux requêtes élémentaires. Mais surtout, remarquez comment il reste fidèle à son rôle central de bot d’assistance client serviable. Enfin, il utilise avec succès les informations de l’URL spécifiée.
Exemples de modèles de flux utilisant le composant Composant Prompt dans FlowHunt
Pour vous aider à démarrer rapidement, nous avons préparé plusieurs exemples de modèles de flux qui démontrent comment utiliser efficacement le composant Composant Prompt dans FlowHunt. Ces modèles présentent différents cas d'utilisation et meilleures pratiques, facilitant votre compréhension et l'implémentation du composant dans vos propres projets.
Affichage 1 à 60 de 69 résultats
Questions fréquemment posées
- Qu'est-ce que le composant Prompt ?
Le composant Prompt donne des instructions et du contexte au bot, garantissant qu'il répond de la façon souhaitée.
- Dois-je toujours inclure Prompt dans mes flux ?
L'inclure pour de nombreux cas d'usage est une excellente idée, mais le composant est optionnel.
- Qu'est-ce que le message système ?
C'est un champ de texte modifiable où vous définissez la personnalité et le rôle du bot. Il suffit de remplir le modèle : 'Vous êtes un {role} qui {behavior}.' Par exemple, 'Vous êtes un bot d'assistance client serviable qui parle comme un chevalier médiéval.'
- Dois-je toujours inclure Prompt dans mes flux ?
C'est certainement une très bonne idée de l'inclure pour de nombreux cas d'usage, mais le composant est optionnel.
Essayez le composant Prompt de FlowHunt
Commencez à créer des chatbots IA personnalisés et contextuels grâce à la fonctionnalité Prompt intuitive de FlowHunt. Définissez des rôles, des comportements et contrôlez la sortie pour des automatisations plus intelligentes.