LLM Meta AI

LLM Meta AI de FlowHunt réunit les modèles Llama de Meta et des dizaines d’autres modèles IA dans un tableau de bord unique et facile à contrôler pour une génération flexible de textes et d’images.

LLM Meta AI

Description du composant

Comment fonctionne le composant LLM Meta AI

Qu’est-ce que le composant LLM Meta AI ?

Le composant LLM Meta AI connecte la famille de modèles Claude à votre Flow. Bien que la magie opère réellement dans les Générateurs et Agents, les composants LLM vous permettent de contrôler le modèle utilisé. Tous les composants sont livrés avec ChatGPT-4 par défaut. Vous pouvez connecter ce composant si vous souhaitez changer de modèle ou en prendre davantage le contrôle.

LLM Meta AI Settings

N’oubliez pas que la connexion d’un composant LLM est optionnelle. Tous les composants qui utilisent un LLM incluent ChatGPT-4o par défaut. Les composants LLM vous permettent de changer le modèle et de contrôler ses paramètres.

Paramètres du composant LLM Meta AI

Max Tokens

Les tokens représentent les unités individuelles de texte que le modèle traite et génère. L’utilisation de tokens varie selon les modèles, et un token peut correspondre à des mots, des sous-mots, voire un seul caractère. Les modèles sont généralement tarifés au million de tokens.

Le paramètre max tokens limite le nombre total de tokens pouvant être traités lors d’une seule interaction ou requête, garantissant que les réponses restent dans des limites raisonnables. La limite par défaut est de 4 000 tokens, taille optimale pour résumer des documents et plusieurs sources afin de générer une réponse.

Température

La température contrôle la variabilité des réponses, allant de 0 à 1.

Une température de 0,1 rendra les réponses très précises mais potentiellement répétitives et pauvres.

Une température élevée de 1 permet une créativité maximale dans les réponses mais comporte le risque de réponses hors sujet, voire fantaisistes.

Par exemple, la température recommandée pour un bot de service client est entre 0,2 et 0,5. Ce niveau permet de garder les réponses pertinentes et conformes au script tout en autorisant une certaine variation naturelle.

Modèle

Il s’agit du sélecteur de modèle. Vous trouverez ici tous les modèles pris en charge par Meta AI. Nous proposons les modèles Llama open source, légers, de Meta. Ces modèles sont conçus pour des déploiements efficaces sur appareil ou en edge :

  • Llama 3.2 1B – Le modèle 1B contient environ 1,23 milliard de paramètres, avec une longueur de contexte jusqu’à 128 000 tokens. Il est optimisé pour des tâches telles que la synthèse, le suivi d’instructions et la réécriture, ce qui le rend adapté aux applications mobiles et embarquées. Pour en savoir plus sur ce modèle et son fonctionnement, consultez cet article.
  • Llama 3.2. 3B – Le modèle 3B comprend environ 3,21 milliards de paramètres avec une longueur de contexte allant jusqu’à 128 000 tokens. Découvrez comment ce modèle gère différentes tâches.

Comment ajouter LLM Meta AI à votre Flow

Vous remarquerez que tous les composants LLM n’ont qu’une poignée de sortie. Les entrées ne traversent pas le composant, puisqu’il ne représente que le modèle, tandis que la génération réelle a lieu dans les Agents IA et les Générateurs.

La poignée LLM est toujours violette. L’entrée LLM se trouve sur tout composant utilisant l’IA pour générer du texte ou traiter des données. Vous pouvez voir les options en cliquant sur la poignée :

xAI component compatibility

Cela vous permet de créer toutes sortes d’outils. Voyons le composant en action. Voici un Flow de chatbot IA simple utilisant Llama 3.2 1B de Meta AI pour générer des réponses. Vous pouvez le considérer comme un chatbot Llama de base.

Ce Flow de Chatbot simple inclut :

  • Entrée chat : représente le message qu’un utilisateur envoie dans le chat.
  • Historique du chat : permet au chatbot de se souvenir et de prendre en compte les réponses passées.
  • Sortie chat : correspond à la réponse finale du chatbot.
  • Agent IA : un agent autonome générant les réponses.
  • LLM Meta AI : la connexion aux modèles de génération de texte de Meta.
LLM Meta AI Chatbot Example

Questions fréquemment posées

Qu'est-ce que le composant LLM Meta AI dans FlowHunt ?

Le composant LLM Meta AI vous permet de connecter les modèles Llama de Meta et d'autres générateurs de texte/image à vos flows, facilitant la sélection du modèle et la configuration avancée comme le nombre maximal de tokens ou la température.

Quels modèles Meta sont pris en charge par FlowHunt ?

FlowHunt prend en charge les modèles Llama open source de Meta, dont Llama 3.2 1B et 3B, optimisés pour l'efficacité, la synthèse et les déploiements sur appareil.

Comment configurer les paramètres de LLM Meta AI ?

Vous pouvez ajuster des paramètres tels que le nombre maximal de tokens (limite la longueur de la réponse), la température (contrôle la créativité des réponses) et la sélection du modèle directement depuis le tableau de bord FlowHunt pour chaque composant.

Est-il nécessaire d'ajouter le composant LLM Meta AI à chaque flow ?

Non, l'ajout du composant LLM Meta AI est optionnel. Par défaut, les composants utilisent ChatGPT-4o, mais vous pouvez passer à Llama ou à d'autres modèles pour plus de contrôle ou des cas d'usage spécifiques.

Essayez LLM Meta AI de FlowHunt

Commencez à créer des chatbots et des outils IA plus intelligents avec les modèles Llama de Meta et des dizaines d'autres générateurs IA, tous sur une seule plateforme.

En savoir plus