LLM OpenAI personnalisé
Le composant LLM OpenAI personnalisé vous permet de connecter et configurer vos propres modèles de langage compatibles OpenAI pour des flux conversationnels IA flexibles et avancés.

Description du composant
Comment fonctionne le composant LLM OpenAI personnalisé
Le composant LLM OpenAI personnalisé offre une interface flexible pour interagir avec de grands modèles de langage compatibles avec l’API OpenAI. Cela inclut non seulement les modèles d’OpenAI, mais aussi ceux de fournisseurs alternatifs tels que JinaChat, LocalAI et Prem. Le composant est conçu pour être hautement configurable, ce qui le rend adapté à une variété de scénarios de workflow IA nécessitant du traitement du langage naturel.
Objectif et fonctionnalités
Ce composant agit comme un pont entre votre workflow IA et les modèles de langage qui suivent le standard de l’API OpenAI. En vous permettant de spécifier le fournisseur du modèle, le point de terminaison API et d’autres paramètres, il vous permet de générer ou traiter du texte, de discuter ou de produire d’autres sorties basées sur le langage au sein de votre workflow. Que vous ayez besoin de résumer un contenu, répondre à des questions, générer du texte créatif ou effectuer d’autres tâches de traitement du langage, ce composant peut être adapté à vos besoins.
Paramètres
Vous pouvez contrôler le comportement du composant via plusieurs paramètres :
Paramètre | Type | Obligatoire | Défaut | Description |
---|---|---|---|---|
Nombre max de tokens | int | Non | 3000 | Limite la longueur maximale de la sortie générée. |
Nom du modèle | string | Non | (vide) | Spécifiez le modèle exact à utiliser (ex : gpt-3.5-turbo ). |
Base API OpenAI | string | Non | (vide) | Permet de définir un point de terminaison API personnalisé (ex : pour JinaChat, LocalAI ou Prem). Par défaut OpenAI si vide. |
Clé API | string | Oui | (vide) | Votre clé API secrète pour accéder au fournisseur de modèle de langage choisi. |
Température | float | Non | 0.7 | Contrôle la créativité de la sortie. Des valeurs basses donnent des résultats plus déterministes. Plage : 0 à 1. |
Utiliser le cache | bool | Non | true | Active/désactive la mise en cache des requêtes pour améliorer l’efficacité et réduire les coûts. |
Remarque : Toutes ces options de configuration sont des paramètres avancés, vous offrant un contrôle précis sur le comportement et l’intégration du modèle.
Entrées et sorties
Entrées :
Il n’y a pas de poignées d’entrée pour ce composant.Sorties :
- Produit un objet
BaseChatModel
, qui peut être utilisé dans les composants suivants de votre workflow pour un traitement ou une interaction ultérieure.
- Produit un objet
Pourquoi utiliser ce composant ?
- Flexibilité : Connectez n’importe quel modèle de langage compatible OpenAI, y compris des déploiements tiers ou locaux.
- Personnalisation : Ajustez des paramètres comme la limite de tokens, l’aléatoire (température) et la mise en cache selon vos cas d’usage.
- Extensibilité : Convient aux chatbots, à la génération de contenu, au résumé, à la génération de code, et plus encore.
- Efficacité : La mise en cache intégrée permet d’éviter les requêtes redondantes et de gérer l’utilisation de l’API de manière rentable.
Exemples d’utilisation
- Déployer un chatbot en utilisant une instance locale d’un modèle de langage compatible OpenAI.
- Générer des résumés ou du contenu créatif avec JinaChat, LocalAI ou un point de terminaison API personnalisé.
- Intégrer une analyse de texte basée sur un LLM dans un workflow IA plus large, en connectant les sorties à des composants de traitement en aval.
Tableau récapitulatif
Fonctionnalité | Description |
---|---|
Prise en charge des fournisseurs | OpenAI, JinaChat, LocalAI, Prem, ou tout service compatible avec l’API OpenAI |
Type de sortie | BaseChatModel |
Point de terminaison API | Configurable (par défaut : https://api.openai.com/v1) |
Sécurité | Clé API requise (gardée secrète) |
Utilisabilité | Paramètres avancés pour utilisateurs expérimentés, mais valeurs par défaut adaptées à la plupart des applications |
Ce composant est idéal pour toute personne souhaitant intégrer des capacités LLM flexibles, robustes et configurables dans ses workflows IA, que vous utilisiez directement OpenAI ou un fournisseur alternatif.
Questions fréquemment posées
- Qu'est-ce que le composant LLM OpenAI personnalisé ?
Le composant LLM OpenAI personnalisé vous permet de connecter n'importe quel modèle de langage compatible OpenAI — comme JinaChat, LocalAI ou Prem — en fournissant vos propres identifiants API et points de terminaison, vous offrant ainsi un contrôle total sur les capacités de votre IA.
- Quels paramètres puis-je personnaliser dans ce composant ?
Vous pouvez définir le nom du modèle, la clé API, le point de terminaison API, la température, le nombre maximal de tokens et activer la mise en cache des résultats pour une performance et une flexibilité optimisées.
- Puis-je utiliser des modèles non-OpenAI avec ce composant ?
Oui, tant que le modèle utilise l'interface API OpenAI, vous pouvez connecter des alternatives comme JinaChat, LocalAI ou Prem.
- Ma clé API est-elle sécurisée dans FlowHunt ?
Votre clé API est nécessaire pour connecter votre modèle et elle est gérée de manière sécurisée par la plateforme. Elle n'est jamais partagée ni exposée à des parties non autorisées.
- Ce composant prend-il en charge la mise en cache des sorties ?
Oui, vous pouvez activer la mise en cache pour stocker et réutiliser les résultats précédents, réduisant ainsi la latence et l'utilisation de l'API lors de requêtes répétées.
Intégrez des LLM personnalisés avec FlowHunt
Connectez vos propres modèles de langage et dynamisez vos workflows IA. Essayez le composant LLM OpenAI personnalisé dans FlowHunt dès aujourd'hui.