LLM OpenAI personnalisé

Le composant LLM OpenAI personnalisé vous permet de connecter et configurer vos propres modèles de langage compatibles OpenAI pour des flux conversationnels IA flexibles et avancés.

LLM OpenAI personnalisé

Description du composant

Comment fonctionne le composant LLM OpenAI personnalisé

Le composant LLM OpenAI personnalisé offre une interface flexible pour interagir avec de grands modèles de langage compatibles avec l’API OpenAI. Cela inclut non seulement les modèles d’OpenAI, mais aussi ceux de fournisseurs alternatifs tels que JinaChat, LocalAI et Prem. Le composant est conçu pour être hautement configurable, ce qui le rend adapté à une variété de scénarios de workflow IA nécessitant du traitement du langage naturel.

Objectif et fonctionnalités

Ce composant agit comme un pont entre votre workflow IA et les modèles de langage qui suivent le standard de l’API OpenAI. En vous permettant de spécifier le fournisseur du modèle, le point de terminaison API et d’autres paramètres, il vous permet de générer ou traiter du texte, de discuter ou de produire d’autres sorties basées sur le langage au sein de votre workflow. Que vous ayez besoin de résumer un contenu, répondre à des questions, générer du texte créatif ou effectuer d’autres tâches de traitement du langage, ce composant peut être adapté à vos besoins.

Paramètres

Vous pouvez contrôler le comportement du composant via plusieurs paramètres :

ParamètreTypeObligatoireDéfautDescription
Nombre max de tokensintNon3000Limite la longueur maximale de la sortie générée.
Nom du modèlestringNon(vide)Spécifiez le modèle exact à utiliser (ex : gpt-3.5-turbo).
Base API OpenAIstringNon(vide)Permet de définir un point de terminaison API personnalisé (ex : pour JinaChat, LocalAI ou Prem). Par défaut OpenAI si vide.
Clé APIstringOui(vide)Votre clé API secrète pour accéder au fournisseur de modèle de langage choisi.
TempératurefloatNon0.7Contrôle la créativité de la sortie. Des valeurs basses donnent des résultats plus déterministes. Plage : 0 à 1.
Utiliser le cacheboolNontrueActive/désactive la mise en cache des requêtes pour améliorer l’efficacité et réduire les coûts.

Remarque : Toutes ces options de configuration sont des paramètres avancés, vous offrant un contrôle précis sur le comportement et l’intégration du modèle.

Entrées et sorties

  • Entrées :
    Il n’y a pas de poignées d’entrée pour ce composant.

  • Sorties :

    • Produit un objet BaseChatModel, qui peut être utilisé dans les composants suivants de votre workflow pour un traitement ou une interaction ultérieure.

Pourquoi utiliser ce composant ?

  • Flexibilité : Connectez n’importe quel modèle de langage compatible OpenAI, y compris des déploiements tiers ou locaux.
  • Personnalisation : Ajustez des paramètres comme la limite de tokens, l’aléatoire (température) et la mise en cache selon vos cas d’usage.
  • Extensibilité : Convient aux chatbots, à la génération de contenu, au résumé, à la génération de code, et plus encore.
  • Efficacité : La mise en cache intégrée permet d’éviter les requêtes redondantes et de gérer l’utilisation de l’API de manière rentable.

Exemples d’utilisation

  • Déployer un chatbot en utilisant une instance locale d’un modèle de langage compatible OpenAI.
  • Générer des résumés ou du contenu créatif avec JinaChat, LocalAI ou un point de terminaison API personnalisé.
  • Intégrer une analyse de texte basée sur un LLM dans un workflow IA plus large, en connectant les sorties à des composants de traitement en aval.

Tableau récapitulatif

FonctionnalitéDescription
Prise en charge des fournisseursOpenAI, JinaChat, LocalAI, Prem, ou tout service compatible avec l’API OpenAI
Type de sortieBaseChatModel
Point de terminaison APIConfigurable (par défaut : https://api.openai.com/v1)
SécuritéClé API requise (gardée secrète)
UtilisabilitéParamètres avancés pour utilisateurs expérimentés, mais valeurs par défaut adaptées à la plupart des applications

Ce composant est idéal pour toute personne souhaitant intégrer des capacités LLM flexibles, robustes et configurables dans ses workflows IA, que vous utilisiez directement OpenAI ou un fournisseur alternatif.

Questions fréquemment posées

Qu'est-ce que le composant LLM OpenAI personnalisé ?

Le composant LLM OpenAI personnalisé vous permet de connecter n'importe quel modèle de langage compatible OpenAI — comme JinaChat, LocalAI ou Prem — en fournissant vos propres identifiants API et points de terminaison, vous offrant ainsi un contrôle total sur les capacités de votre IA.

Quels paramètres puis-je personnaliser dans ce composant ?

Vous pouvez définir le nom du modèle, la clé API, le point de terminaison API, la température, le nombre maximal de tokens et activer la mise en cache des résultats pour une performance et une flexibilité optimisées.

Puis-je utiliser des modèles non-OpenAI avec ce composant ?

Oui, tant que le modèle utilise l'interface API OpenAI, vous pouvez connecter des alternatives comme JinaChat, LocalAI ou Prem.

Ma clé API est-elle sécurisée dans FlowHunt ?

Votre clé API est nécessaire pour connecter votre modèle et elle est gérée de manière sécurisée par la plateforme. Elle n'est jamais partagée ni exposée à des parties non autorisées.

Ce composant prend-il en charge la mise en cache des sorties ?

Oui, vous pouvez activer la mise en cache pour stocker et réutiliser les résultats précédents, réduisant ainsi la latence et l'utilisation de l'API lors de requêtes répétées.

Intégrez des LLM personnalisés avec FlowHunt

Connectez vos propres modèles de langage et dynamisez vos workflows IA. Essayez le composant LLM OpenAI personnalisé dans FlowHunt dès aujourd'hui.

En savoir plus