Composant Prompt dans FlowHunt

Le composant Prompt dans FlowHunt définit les rôles et comportements du bot pour des réponses IA personnalisées. Contrôlez la sortie avec des modèles personnalisés pour créer des chatbots efficaces et contextuels.

Composant Prompt dans FlowHunt

Description du composant

Comment fonctionne le composant Composant Prompt dans FlowHunt

Sans un bon prompt, tous les bots se comporteraient de la même manière et manqueraient souvent leur cible dans leurs réponses. Les prompts donnent des instructions et du contexte au modèle de langage, l’aidant à comprendre quel type de texte il doit produire.

Aperçu du composant Prompt

Le composant Prompt est conçu pour générer des modèles de prompts flexibles à utiliser dans des workflows IA, permettant l’insertion dynamique de variables et de contexte. Ce composant est particulièrement utile dans les scénarios d’IA conversationnelle, tels que les chatbots ou assistants virtuels, où la création de prompts adaptables et sensibles au contexte est essentielle.

À quoi sert le composant ?

Le composant Prompt crée un modèle de prompt qui peut incorporer diverses variables dynamiques, telles que l’entrée utilisateur, l’historique de conversation, les instructions système et les messages de contexte. En exploitant ces variables, le composant vous aide à structurer des prompts riches et sensibles au contexte, améliorant la performance et la pertinence des modèles ou agents IA en aval.

Fonctionnalités clés

  • Modèles dynamiques : Créez des prompts qui incluent automatiquement les informations disponibles comme l’historique de discussion, l’entrée utilisateur et le contexte.
  • Variables personnalisées : Prend en charge l’insertion de variables telles que {input}, {human_input}, {context}, {chat_history}, {system_message} et {all_input_variables} directement dans le modèle de prompt.
  • Prise en charge du message système : Permet l’ajout d’instructions de niveau système pour influencer le comportement de l’IA.
  • Réutilisable dans les workflows : La sortie de ce composant peut être utilisée comme entrée pour d’autres composants, tels que les LLM (Large Language Models) ou d’autres étapes de traitement.

Entrées

Les entrées suivantes peuvent être fournies au composant Prompt :

Nom de l’entréeTypeObligatoireDescription
Historique ChatInMemoryChatMessageHistoryNonMessages précédents de la conversation. Utile pour maintenir le contexte ou générer des requêtes alternatives.
ContexteMessageNonInformations contextuelles supplémentaires à inclure dans le prompt.
EntréeMessageNonL’entrée ou le message principal de l’utilisateur.
Message SystèmeString (multiligne)NonInstructions de niveau système pour guider le comportement de l’IA.
ModèlePrompt (multiligne)NonLe modèle réel pour le prompt, prenant en charge des variables dynamiques pour la personnalisation.

Sorties

  • Message :
    Le composant produit un objet message unique qui contient le prompt construit, avec toutes les variables dynamiques remplacées par leurs valeurs correspondantes.
Nom de sortieTypeDescription
MessageMessageLe prompt généré, prêt à être utilisé dans les composants IA en aval.

Exemples de cas d’utilisation

  • IA conversationnelle : Générer automatiquement des prompts pour les chatbots en fonction de l’entrée utilisateur, de l’historique de conversation et du contexte supplémentaire.
  • Récupération augmentée : Personnaliser les prompts pour les tâches de récupération en incluant les interactions passées pertinentes et les instructions système.
  • Ajustement d’instructions : Adapter facilement les prompts pour différentes tâches ou profils utilisateurs en ajustant le modèle et le message système.

Pourquoi utiliser ce composant ?

  • Améliore l’ingénierie des prompts : Gérez et mettez à jour facilement les modèles de prompts sans codage en dur.
  • Rend l’IA plus pertinente : En injectant du contexte, des messages système et de l’historique, les prompts deviennent plus informatifs et précis.
  • Augmente la flexibilité : Prend en charge un large éventail de cas d’utilisation, de la simple FAQ aux conversations complexes à plusieurs tours.

Tableau récapitulatif

FonctionnalitéAvantage
Injection dynamique de variablesPrompts contextuels et adaptables
Prise en charge de l’historiqueMaintient la continuité dans les interactions
Intégration du message systèmeAffine la personnalité ou les instructions de l’IA
Intégration facile dans les fluxSimplifie la création de prompts pour l’IA

Ce composant est un outil fondamental pour tous ceux qui construisent des workflows IA sophistiqués et sensibles au contexte, où la construction du prompt est la clé pour obtenir des résultats de haute qualité.

Modèle

Ceci est un paramètre avancé et optionnel. Vous pouvez créer des modèles de prompt avec des variables spécifiques pour contrôler totalement la sortie du chat. Par exemple :

En tant qu’expert SEO, analyse le contenu de l’URL et propose un titre de 65 caractères maximum.— Contenu de l’URL —{input}Tâche : Génère un titre similaire aux autres en utilisant la requête {human_input}. Ne modifie pas {human_input} dans le nouveau titre. NOUVEAU TITRE :

Le modèle de prompt par défaut ressemble à ceci :

Vous êtes un assistant IA modèle de langage.
Votre tâche est de générer une réponse basée sur la requête d’entrée.
Si un contexte est fourni, utilisez-le pour générer la réponse à la requête INPUT et HUMAN_INPUT.
Formatez la réponse en markdown.

RÉPONSE DANS LA LANGUE : {lang}
VARIABLES :
{"session_start_time": "2025-06-03 07:35:22", "current_page_url": "https://app.flowhunt.io/aistudio/flows/de6c2e2c-d817-4b2f-af2c-12dba3f46870?ws=74be5f74-d7c5-4076-839d-8ac1771a3b75"}
INPUT : {input}

RÉPONSE :

Le prompt par défaut reprend la même structure que les paramètres du composant. Vous pouvez remplacer les paramètres en modifiant et en utilisant les variables dans le champ modèle. Créer vos propres modèles vous donne un contrôle total sur la sortie.

Comment connecter le composant Prompt à votre flux

Le prompt est un composant optionnel qui modifie et précise davantage la sortie finale. Il a besoin de plusieurs composants connectés :

  • Historique Chat : Connecter l’historique n’est pas obligatoire mais souvent bénéfique. Se souvenir des messages précédents rend les réponses futures plus pertinentes.
  • Contexte : Tout texte pertinent peut servir de contexte. Le choix le plus courant est de relier les connaissances provenant des récupérateurs.
  • Entrée : Seul le composant Chat Input peut être connecté ici.

La sortie de ce composant est du texte qui peut être connecté à divers composants. La plupart du temps, vous enchaînez immédiatement avec le composant Générateur pour transmettre le prompt à un LLM.

Exemple

Créons un bot très simple. Prenons l’exemple du bot chevalier médiéval évoqué plus haut. Bien qu’il parle de façon amusante, sa mission principale est d’être un bot d’assistance client serviable, et nous voulons qu’il fournisse des informations pertinentes.

Posons à notre bot une question typique du service client. Nous demanderons les tarifs de URLsLab. Pour obtenir une réponse réussie, il nous faut :

  • Lui donner du contexte : Dans cet exemple, utilisons le composant récupérateur d’URL pour lui fournir une page contenant toutes les informations nécessaires.
  • Connecter l’entrée : L’entrée est toujours le message humain provenant du composant Chat Input.
  • Historique Chat : Optionnel mais connectons-le dans ce cas précis.
  • Modèle : Conservons le prompt, « Vous êtes un bot d’assistance client serviable qui parle comme un chevalier médiéval. ». Les prompts peuvent être bien plus élaborés. Consultez notre bibliothèque de prompts pour l’inspiration.
  • Ajouter le Générateur : Nous voulons que le bot ait des capacités conversationnelles. Pour cela, connectez le Générateur. Le Prompt sert d’entrée au générateur.

Le flux obtenu ressemblera à ceci :

Result flow using Prompt component in FlowHunt

Il est temps de tester les connaissances de notre bot chevalier médiéval. L’URL que nous lui avons fournie correspond à la tarification de URLsLab. Demandons-lui à ce sujet :

Flowhunt bot answers according to Prompt

Notre bot utilise désormais un langage ancien et pompeux pour répondre aux requêtes élémentaires. Mais surtout, remarquez comment il reste fidèle à son rôle central de bot d’assistance client serviable. Enfin, il utilise avec succès les informations de l’URL spécifiée.

Exemples de modèles de flux utilisant le composant Composant Prompt dans FlowHunt

Pour vous aider à démarrer rapidement, nous avons préparé plusieurs exemples de modèles de flux qui démontrent comment utiliser efficacement le composant Composant Prompt dans FlowHunt. Ces modèles présentent différents cas d'utilisation et meilleures pratiques, facilitant votre compréhension et l'implémentation du composant dans vos propres projets.

Précédent Suivant

Questions fréquemment posées

Qu'est-ce que le composant Prompt ?

Le composant Prompt donne des instructions et du contexte au bot, garantissant qu'il répond de la façon souhaitée.

Dois-je toujours inclure Prompt dans mes flux ?

L'inclure pour de nombreux cas d'usage est une excellente idée, mais le composant est optionnel.

Qu'est-ce que le message système ?

C'est un champ de texte modifiable où vous définissez la personnalité et le rôle du bot. Il suffit de remplir le modèle : 'Vous êtes un {role} qui {behavior}.' Par exemple, 'Vous êtes un bot d'assistance client serviable qui parle comme un chevalier médiéval.'

Dois-je toujours inclure Prompt dans mes flux ?

C'est certainement une très bonne idée de l'inclure pour de nombreux cas d'usage, mais le composant est optionnel.

Essayez le composant Prompt de FlowHunt

Commencez à créer des chatbots IA personnalisés et contextuels grâce à la fonctionnalité Prompt intuitive de FlowHunt. Définissez des rôles, des comportements et contrôlez la sortie pour des automatisations plus intelligentes.

En savoir plus