LLM Mistral

LLM Mistral sur FlowHunt permet une intégration flexible de modèles IA Mistral avancés pour une génération de texte fluide dans les chatbots et outils IA.

LLM Mistral

Description du composant

Comment fonctionne le composant LLM Mistral

Qu’est-ce que le composant LLM Mistral ?

Le composant LLM Mistral connecte les modèles Mistral à votre flow. Alors que les Générateurs et Agents sont le lieu où la magie opère réellement, les composants LLM vous permettent de contrôler le modèle utilisé. Tous les composants sont fournis avec ChatGPT-4 par défaut. Vous pouvez connecter ce composant si vous souhaitez changer de modèle ou avoir plus de contrôle dessus.

Mistral component

Rappelez-vous que connecter un composant LLM est optionnel. Tous les composants utilisant un LLM sont fournis avec ChatGPT-4o par défaut. Les composants LLM vous permettent de changer le modèle et de contrôler les paramètres du modèle.

Paramètres du composant LLM Mistral

Nombre maximal de tokens

Les tokens représentent les unités individuelles de texte que le modèle traite et génère. L’utilisation des tokens varie selon les modèles, et un token peut être un mot, un sous-mot ou même un simple caractère. Les modèles sont généralement tarifés par millions de tokens.

Le paramètre de tokens maximum limite le nombre total de tokens pouvant être traités lors d’une seule interaction ou requête, garantissant que les réponses sont générées dans des limites raisonnables. La limite par défaut est de 4 000 tokens, ce qui est la taille optimale pour résumer des documents et plusieurs sources afin de générer une réponse.

Température

La température contrôle la variabilité des réponses, entre 0 et 1.

Une température de 0,1 rendra les réponses très directes mais potentiellement répétitives et pauvres.

Une température élevée de 1 permet une créativité maximale dans les réponses mais au risque de générer des réponses hors sujet, voire hallucinées.

Par exemple, la température recommandée pour un bot de service client est entre 0,2 et 0,5. Ce niveau permet de garder les réponses pertinentes et conformes au script tout en autorisant une variation naturelle.

Modèle

C’est ici que vous choisissez le modèle. Vous trouverez ici tous les modèles Mistral pris en charge. Nous prenons actuellement en charge les modèles suivants :

  • Mistral 7B – Un modèle linguistique de 7,3 milliards de paramètres utilisant l’architecture transformers, publié sous licence Apache 2.0. Malgré sa taille modeste, il surpasse régulièrement le modèle Llama 2 de Meta. Découvrez ses performances lors de nos tests.
  • Mistral 8x7B (Mixtral) – Ce modèle utilise une architecture sparse mixture of experts, composée de huit groupes distincts d’“experts”, pour un total de 46,7 milliards de paramètres. Chaque token utilise jusqu’à 12,9 milliards de paramètres, offrant des performances équivalentes ou supérieures à LLaMA 2 70B et GPT-3.5 sur la plupart des benchmarks. Consultez des exemples de sorties.
  • Mistral Large – Un modèle linguistique haute performance de 123 milliards de paramètres et une longueur de contexte de 128 000 tokens. Il est fluide dans plusieurs langues, y compris les langages de programmation, et affiche des performances compétitives face à des modèles comme LLaMA 3.1 405B, en particulier sur les tâches liées à la programmation. En savoir plus ici.

Comment ajouter le LLM Mistral à votre flow

Vous remarquerez que tous les composants LLM n’ont qu’une sortie. L’entrée ne passe pas par le composant, car il ne représente que le modèle, tandis que la génération réelle a lieu dans les Agents IA et Générateurs.

La prise LLM est toujours violette. La prise d’entrée LLM se trouve sur tout composant utilisant l’IA pour générer du texte ou traiter des données. Vous pouvez voir les options en cliquant sur la prise :

Mistral compatibility

Cela vous permet de créer toutes sortes d’outils. Voyons le composant en action. Voici un flow simple de chatbot IA utilisant le modèle Mistral 7B pour générer des réponses. Vous pouvez le considérer comme un chatbot Mistral de base.

Ce flow de chatbot simple comprend :

  • Entrée chat : Représente le message envoyé par l’utilisateur dans le chat.
  • Historique du chat : Assure que le chatbot peut se souvenir et prendre en compte les réponses précédentes.
  • Sortie chat : Représente la réponse finale du chatbot.
  • Agent IA : Un agent IA autonome qui génère des réponses.
  • LLM Mistral : La connexion aux modèles de génération de texte de Mistral.
Mistral chatbot

Questions fréquemment posées

Qu’est-ce que le composant LLM Mistral dans FlowHunt ?

Le composant LLM Mistral vous permet de connecter les modèles IA Mistral à vos projets FlowHunt, offrant une génération de texte avancée pour vos chatbots et agents IA. Il vous permet de changer de modèle, de contrôler les paramètres, et d’intégrer des modèles comme Mistral 7B, Mixtral (8x7B) et Mistral Large.

Quels modèles Mistral sont pris en charge par FlowHunt ?

FlowHunt prend en charge Mistral 7B, Mixtral (8x7B) et Mistral Large, chacun offrant différents niveaux de performance et de paramètres pour divers besoins de génération de texte.

Quels paramètres puis-je personnaliser avec le composant LLM Mistral ?

Vous pouvez ajuster des paramètres comme le nombre maximal de tokens et la température, et choisir parmi les modèles Mistral pris en charge pour contrôler la longueur des réponses, la créativité et le comportement du modèle dans vos flux.

Est-il obligatoire de connecter le composant LLM Mistral pour chaque projet ?

Non, connecter un composant LLM est optionnel. Par défaut, les composants FlowHunt utilisent ChatGPT-4o. Utilisez le composant LLM Mistral lorsque vous souhaitez plus de contrôle ou utiliser un modèle Mistral spécifique.

Essayez LLM Mistral de FlowHunt dès aujourd’hui

Commencez à créer des chatbots et outils IA plus intelligents en intégrant les puissants modèles linguistiques de Mistral avec la plateforme no-code de FlowHunt.

En savoir plus