Description du composant
Comment fonctionne le composant LLM OpenAI
Qu’est-ce que le composant LLM Open AI ?
Le composant LLM OpenAI connecte les modèles ChatGPT à votre flow. Tandis que les Générateurs et Agents sont le lieu où la magie opère, les composants LLM vous permettent de contrôler le modèle utilisé. Tous les composants sont livrés avec ChatGPT-4 par défaut. Vous pouvez connecter ce composant si vous souhaitez changer de modèle ou avoir un meilleur contrôle dessus.

Paramètres du composant LLM OpenAI
Nom du modèle
Ceci est le sélecteur de modèle. Vous y trouverez tous les modèles OpenAI pris en charge par FlowHunt. ChatGPT propose une liste complète de modèles aux capacités et prix différents. Par exemple, utiliser le GPT-3.5, moins avancé et plus ancien, coûtera moins cher que d’utiliser le tout dernier 4o, mais la qualité et la rapidité des résultats en pâtiront.
Modèles OpenAI disponibles dans FlowHunt :
- GPT-4o – Le dernier et le plus populaire modèle d’OpenAI. Un modèle multimodal capable de traiter du texte, des images, de l’audio et de faire des recherches sur le web. En savoir plus ici.
- GPT-4o Mini – Une version plus petite et économique de GPT-4o, offrant de meilleures performances que GPT-3.5 Turbo, avec une fenêtre de contexte de 128K et plus de 60 % de réduction de coût. Voyez comment il gère les tâches.
- o1 Mini – Une version allégée du modèle o1, conçue pour des tâches de raisonnement complexes, offrant un équilibre entre performance et efficacité. Découvrez ses performances dans nos tests.
- o1 Preview – Un modèle avancé avec des capacités de raisonnement renforcées, excellent dans la résolution de problèmes complexes, notamment en codage et en raisonnement scientifique, disponible en version préliminaire. Observez son raisonnement et la gestion des tâches.
- gpt-4-vision-preview – Modèle en préversion acceptant à la fois des entrées texte et image, prenant en charge des fonctions comme le mode JSON et l’appel de fonctions en parallèle, améliorant les capacités d’interaction multimodale. Découvrez-en plus ici.
- GPT-3.5 Turbo – Une version héritée de GPT, idéale pour les tâches simples à moindre coût. Consultez nos tests d’Agent IA pour le comparer aux modèles récents.
Lorsque vous choisissez le modèle adapté à la tâche, considérez la qualité et la rapidité requises. Les modèles plus anciens sont parfaits pour économiser de l’argent sur des tâches simples et répétitives. Si vous générez du contenu ou effectuez des recherches web, nous vous conseillons d’opter pour un modèle plus récent et plus affiné.
Nombre maximum de tokens
Les tokens représentent les unités individuelles de texte que le modèle traite et génère. L’utilisation des tokens varie selon les modèles, et un seul token peut être un mot, un sous-mot ou même un caractère. Les modèles sont généralement tarifés par millions de tokens.
Le paramètre max tokens limite le nombre total de tokens pouvant être traités lors d’une interaction ou d’une requête, afin de garantir que les réponses restent dans des limites raisonnables. La limite par défaut est de 4 000 tokens, taille optimale pour résumer des documents et plusieurs sources afin de générer une réponse.
Température
La température contrôle la variabilité des réponses, allant de 0 à 1.
Une température de 0,1 rendra les réponses très directes mais potentiellement répétitives et pauvres.
Une température élevée de 1 permet une créativité maximale dans les réponses, mais augmente le risque de réponses hors sujet ou même hallucinatoires.
Par exemple, la température recommandée pour un bot de service client se situe entre 0,2 et 0,5. Ce niveau permet de garder les réponses pertinentes et conformes au script tout en gardant un naturel dans les variations de réponses.
Comment ajouter le LLM OpenAI à votre Flow
Vous remarquerez que tous les composants LLM n’ont qu’une sortie. L’entrée ne passe pas par le composant, car il ne fait que représenter le modèle, tandis que la génération réelle se fait dans les Agents IA et les Générateurs.
La poignée LLM est toujours violette. L’entrée LLM se trouve sur tout composant utilisant l’IA pour générer du texte ou traiter des données. Vous pouvez voir les options en cliquant sur la poignée :

Cela vous permet de créer toutes sortes d’outils. Voyons le composant en action. Voici un Flow de chatbot simple propulsé par un Agent utilisant o1 Preview pour générer des réponses. Vous pouvez le voir comme un chatbot ChatGPT basique.
Ce Flow de chatbot simple comprend :
- Entrée chat : Représente le message qu’un utilisateur envoie dans le chat.
- Historique du chat : Garantit que le chatbot se souvient et prend en compte les réponses précédentes.
- Sortie chat : Représente la réponse finale du chatbot.
- Agent IA : Un agent IA autonome qui génère des réponses.
- LLM OpenAI : La connexion aux modèles de génération de texte d’OpenAI.
Exemples de modèles de flux utilisant le composant LLM OpenAI
Pour vous aider à démarrer rapidement, nous avons préparé plusieurs exemples de modèles de flux qui démontrent comment utiliser efficacement le composant LLM OpenAI. Ces modèles présentent différents cas d'utilisation et meilleures pratiques, facilitant votre compréhension et l'implémentation du composant dans vos propres projets.
Questions fréquemment posées
- Qu’est-ce qu’un LLM ?
Les grands modèles de langage sont des types d’IA entraînés à traiter, comprendre et générer du texte de manière humaine. Un exemple courant est ChatGPT, qui peut fournir des réponses élaborées à presque toutes les questions.
- Puis-je connecter un LLM directement à la sortie du chat ?
Non, le composant LLM est uniquement une représentation du modèle d’IA. Il change le modèle que le Générateur utilisera. Le LLM par défaut dans le Générateur est ChatGPT-4o.
- Quels LLM sont disponibles dans Flows ?
Pour l’instant, seul le composant OpenAI est disponible. Nous prévoyons d’en ajouter d’autres à l’avenir.
- Dois-je ajouter un LLM à mon flux ?
Non, les Flows sont une fonctionnalité polyvalente avec de nombreux cas d’utilisation sans nécessiter de LLM. Vous ajoutez un LLM si vous souhaitez construire un chatbot conversationnel qui génère librement des réponses textuelles.
- Le composant LLM OpenAI génère-t-il la réponse ?
Pas vraiment. Le composant ne fait que représenter le modèle et crée des règles à suivre. C’est le composant générateur qui le connecte à l’entrée et exécute la requête via le LLM pour créer la sortie.
Prêt à créer votre propre IA ?
Chatbots intelligents et outils IA sous un même toit. Connectez des blocs intuitifs pour transformer vos idées en Flows automatisés.