LLM Gemini

Libérez la puissance des modèles Gemini de Google dans FlowHunt—changez de modèle d’IA, contrôlez les réglages et créez des chatbots IA plus intelligents en toute simplicité.

LLM Gemini

Description du composant

Comment fonctionne le composant LLM Gemini

Qu’est-ce que le composant LLM Gemini ?

Le composant LLM Gemini connecte les modèles Gemini de Google à votre flow. Alors que les Générateurs et Agents sont là où la magie opère, les composants LLM vous permettent de contrôler le modèle utilisé. Tous les composants sont livrés avec ChatGPT-4 par défaut. Vous pouvez connecter ce composant si vous souhaitez changer de modèle ou avoir plus de contrôle dessus.

Gemini component

N’oubliez pas que la connexion d’un composant LLM est optionnelle. Tous les composants qui utilisent un LLM incluent ChatGPT-4o par défaut. Les composants LLM vous permettent de changer le modèle et de contrôler ses paramètres.

Paramètres du composant LLM Gemini

Max Tokens

Les tokens représentent les unités individuelles de texte que le modèle traite et génère. L’utilisation des tokens varie selon les modèles, et un token peut être un mot, un sous-mot ou même un seul caractère. Les modèles sont généralement facturés par millions de tokens.

Le paramètre de tokens maximum limite le nombre total de tokens pouvant être traités lors d’une seule interaction ou requête, afin de garantir que les réponses soient générées dans des limites raisonnables. La limite par défaut est de 4 000 tokens, taille optimale pour résumer des documents et plusieurs sources afin de générer une réponse.

Temperature

La température contrôle la variabilité des réponses, allant de 0 à 1.

Une température de 0,1 rendra les réponses très directes mais potentiellement répétitives et pauvres.

Une température élevée de 1 permet une créativité maximale dans les réponses mais au risque d’obtenir des réponses hors sujet, voire fantaisistes.

Par exemple, la température recommandée pour un bot de service client est entre 0,2 et 0,5. Ce niveau devrait maintenir la pertinence des réponses tout en autorisant une variation naturelle.

Modèle

Ceci est le sélecteur de modèle. Vous trouverez ici tous les modèles Gemini pris en charge par Google. Nous prenons en charge tous les derniers modèles Gemini :

  • Gemini 2.0 Flash Experimental – Un modèle avancé, à faible latence, conçu pour les agents. Il propose de nouvelles fonctionnalités telles que l’utilisation native d’outils, la création d’images et la génération vocale. Découvrez les performances du modèle Google le plus avancé lors de nos tests sur des tâches courantes.
  • Gemini 1.5 Flash – Un modèle léger et multimodal optimisé pour la rapidité et l’efficacité, capable de traiter des entrées audio, images, vidéo et texte, avec une fenêtre de contexte allant jusqu’à 1 048 576 tokens. En savoir plus ici.
  • Gemini 1.5 Flash-8B – Une variante plus petite, plus rapide et plus économique du modèle 1.5 Flash, offrant des capacités multimodales similaires avec un prix 50 % inférieur et des limites de débit 2x supérieures à celles du 1.5 Flash. Quelle est la qualité de sortie du modèle le plus faible ? Découvrez-le ici.
  • Gemini 1.5 Pro – Un modèle multimodal de taille moyenne optimisé pour un large éventail de tâches de raisonnement, capable de traiter de grandes quantités de données, y compris des entrées audio et vidéo étendues, avec une limite d’entrée de 2 097 152 tokens. Voir des exemples de sortie.

Comment ajouter LLM Gemini à votre flow

Vous remarquerez que tous les composants LLM n’ont qu’une sortie. L’entrée ne passe pas par le composant, car il ne représente que le modèle, tandis que la génération réelle a lieu dans les Agents et les Générateurs IA.

La poignée LLM est toujours violette. La poignée d’entrée LLM se trouve sur tout composant qui utilise l’IA pour générer du texte ou traiter des données. Vous pouvez voir les options en cliquant sur la poignée :

Gemini compatibility

Cela vous permet de créer toutes sortes d’outils. Voyons le composant en action. Voici un flow simple de chatbot Agent IA utilisant Gemini 2.0 Flash Experimental pour générer des réponses. Vous pouvez le voir comme un chatbot Gemini basique.

Ce flow de chatbot simple comprend :

  • Entrée chat : Représente le message envoyé par l’utilisateur dans le chat.
  • Historique du chat : Permet au chatbot de se souvenir et de prendre en compte les réponses précédentes.
  • Sortie chat : Représente la réponse finale du chatbot.
  • Agent IA : Un agent IA autonome qui génère les réponses.
  • LLM Gemini : La connexion aux modèles de génération de texte de Google.
Gemini chatbot

Exemples de modèles de flux utilisant le composant LLM Gemini

Pour vous aider à démarrer rapidement, nous avons préparé plusieurs exemples de modèles de flux qui démontrent comment utiliser efficacement le composant LLM Gemini. Ces modèles présentent différents cas d'utilisation et meilleures pratiques, facilitant votre compréhension et l'implémentation du composant dans vos propres projets.

Questions fréquemment posées

Qu'est-ce que le composant LLM Gemini dans FlowHunt ?

LLM Gemini connecte les modèles Gemini de Google à vos flux d'IA FlowHunt, vous permettant de choisir parmi les dernières variantes Gemini pour la génération de texte et de personnaliser leur comportement.

Quels modèles Gemini sont pris en charge ?

FlowHunt prend en charge Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B et Gemini 1.5 Pro—chacun offrant des capacités uniques pour les entrées texte, image, audio et vidéo.

Comment Max Tokens et Temperature influencent-ils les réponses ?

Max Tokens limite la longueur de la réponse, tandis que Temperature contrôle la créativité—des valeurs basses donnent des réponses ciblées, des valeurs élevées permettent plus de variété. Les deux peuvent être définis par modèle dans FlowHunt.

Est-il obligatoire d'utiliser le composant LLM Gemini ?

Non, l'utilisation des composants LLM est optionnelle. Tous les flux d'IA incluent ChatGPT-4o par défaut, mais ajouter LLM Gemini vous permet de passer aux modèles Google et de peaufiner leurs paramètres.

Essayez Google Gemini avec FlowHunt

Commencez à créer des chatbots IA avancés et des outils avec Gemini et d'autres modèles de pointe—le tout sur un seul tableau de bord. Basculez de modèle, personnalisez les paramètres et optimisez vos flux de travail.

En savoir plus