LLM xAI

LLM xAI par FlowHunt vous permet d’intégrer les modèles de génération de texte de xAI comme Grok-beta dans vos chatbots et outils IA, avec des réglages flexibles pour les tokens, la température et la sélection du modèle.

LLM xAI

Description du composant

Comment fonctionne le composant LLM xAI

Qu’est-ce que le composant LLM xAI ?

Le composant LLM xAI connecte le modèle Grok à votre flux. Bien que la magie ait lieu dans les Générateurs et Agents, les composants LLM permettent de contrôler le modèle utilisé. Tous les composants sont livrés avec ChatGPT-4 par défaut. Vous pouvez connecter ce composant si vous souhaitez changer de modèle ou obtenir un contrôle plus poussé.

LLM xAI Settings

N’oubliez pas que connecter un composant LLM est optionnel. Tous les composants qui utilisent un LLM viennent avec ChatGPT-4o par défaut. Les composants LLM vous permettent de changer le modèle et d’ajuster les paramètres du modèle.

Paramètres du composant LLM xAI

Nombre maximal de tokens

Les tokens représentent les unités individuelles de texte que le modèle traite et génère. L’utilisation des tokens varie selon les modèles, et un token peut correspondre à un mot, un sous-mot ou même un seul caractère. Les modèles sont généralement tarifés par millions de tokens.

Le paramètre de nombre maximal de tokens limite le nombre total de tokens pouvant être traités lors d’une interaction ou d’une requête, garantissant que les réponses sont générées dans des limites raisonnables. La limite par défaut est de 4 000 tokens, ce qui est optimal pour résumer des documents et plusieurs sources afin de générer une réponse.

Température

La température contrôle la variabilité des réponses, allant de 0 à 1.

Une température de 0,1 rendra les réponses très concises mais potentiellement répétitives et peu variées.

Une température élevée de 1 permet une créativité maximale dans les réponses, mais augmente le risque de réponses hors sujet, voire fantaisistes.

Par exemple, la température recommandée pour un bot de service client est entre 0,2 et 0,5. Ce niveau permet de garder les réponses pertinentes et conformes au script tout en autorisant une variation naturelle.

Modèle

Il s’agit du sélecteur de modèle. Vous y trouverez tous les modèles pris en charge par le fournisseur xAI. Le modèle de texte phare de xAI s’appelle Grok. Actuellement, nous ne prenons en charge que le modèle grok-beta, car c’est le seul qui a été publié pour l’utilisation via l’API publique.

Vous souhaitez en savoir plus sur Grok-beta et voir comment il se compare à d’autres modèles ? Consultez cet article.

Comment ajouter le composant LLM xAI à votre flux

Vous remarquerez que tous les composants LLM n’ont qu’une poignée de sortie. L’entrée ne passe pas par le composant, puisqu’il ne représente que le modèle, tandis que la génération se fait dans les Agents IA et Générateurs.

La poignée LLM est toujours violette. La poignée d’entrée LLM se trouve sur tout composant qui utilise l’IA pour générer du texte ou traiter des données. Vous pouvez voir les options en cliquant sur la poignée :

xAI component compatibility

Cela vous permet de créer toutes sortes d’outils. Voyons le composant en action. Voici un flux simple de chatbot Agent IA utilisant grok-beta de xAI pour générer des réponses. Vous pouvez le considérer comme un chatbot xAI de base.

Ce flux de chatbot simple comprend :

  • Saisie de chat : Représente le message envoyé par un utilisateur dans le chat.
  • Historique de chat : Permet au chatbot de se souvenir et de prendre en compte les réponses précédentes.
  • Sortie de chat : Représente la réponse finale du chatbot.
  • Agent IA : Un agent IA autonome qui génère les réponses.
  • LLM xAI : La connexion aux modèles de génération de texte de xAI.
xAI chatbot flow

Questions fréquemment posées

Qu’est-ce que LLM xAI dans FlowHunt ?

LLM xAI est un composant FlowHunt qui permet de connecter et de contrôler les modèles de génération de texte de fournisseurs xAI comme Grok-beta au sein de vos flux et chatbots IA.

Quels modèles xAI sont pris en charge par FlowHunt ?

Actuellement, FlowHunt prend en charge le modèle grok-beta de xAI, avec davantage de modèles qui seront ajoutés dès qu’ils seront disponibles via l’API publique.

Quels paramètres puis-je contrôler avec le composant LLM xAI ?

Vous pouvez ajuster le nombre maximal de tokens, la température (variabilité des réponses), et choisir parmi les modèles xAI disponibles pour personnaliser le comportement de votre chatbot ou outil IA.

Est-il nécessaire de connecter le composant LLM xAI pour chaque chatbot ?

Non, c’est optionnel. Par défaut, les composants utilisent ChatGPT-4o, mais vous pouvez connecter LLM xAI pour passer aux modèles xAI ou obtenir un contrôle accru.

Comment ajouter le composant LLM xAI à mon projet FlowHunt ?

Il suffit d’ajouter le composant LLM à votre flux ; il agit comme sélecteur de modèle. La génération de texte proprement dite se fait dans les Agents IA et Générateurs qui y sont connectés.

Essayez LLM xAI de FlowHunt dès aujourd’hui

Commencez à créer des chatbots et outils IA plus intelligents avec FlowHunt. Connectez-vous aux meilleurs modèles xAI comme Grok-beta dans un tableau de bord flexible et sans code.

En savoir plus