Description du composant
Comment fonctionne le composant LLM DeepSeek
Qu’est-ce que le composant LLM DeepSeek ?
Le composant LLM DeepSeek connecte les modèles DeepSeek à votre Flow. Alors que les Générateurs et Agents sont l’endroit où la magie opère réellement, les composants LLM vous permettent d’échanger et contrôler le modèle utilisé.

N’oubliez pas que connecter un composant LLM est optionnel. Tous les composants qui utilisent un LLM sont livrés avec ChatGPT-4o comme valeur par défaut. Les composants LLM vous permettent de changer le modèle et de contrôler ses paramètres.
Paramètres du composant LLM Gemini
Nombre maximal de tokens
Les tokens représentent les unités individuelles de texte que le modèle traite et génère. L’utilisation des tokens varie selon les modèles, et un token peut être un mot, un sous-mot ou même un seul caractère. Les modèles sont généralement tarifés par millions de tokens.
Le paramètre de tokens maximum limite le nombre total de tokens pouvant être traités lors d’une seule interaction ou requête, garantissant que les réponses sont générées dans des limites raisonnables. La limite par défaut est de 4 000 tokens, taille optimale pour résumer des documents et plusieurs sources afin de générer une réponse.
Température
La température contrôle la variabilité des réponses, allant de 0 à 1.
Une température de 0,1 rendra les réponses très directes mais potentiellement répétitives et pauvres.
Une température élevée de 1 permet une créativité maximale dans les réponses mais crée un risque de réponses hors sujet voire hallucinées.
Par exemple, la température recommandée pour un bot de service client est entre 0,2 et 0,5. Ce niveau permet de garder les réponses pertinentes et conformes au script tout en autorisant une variation naturelle.
Modèle
Ceci est le sélecteur de modèle. Vous trouverez ici tous les modèles DeepSeek pris en charge. Nous supportons tous les derniers modèles Gemini :
- DeepSeek R1 : Le modèle open source chinois léger qui a fait sensation au début de 2025. C’est actuellement le modèle DeepSeek le plus rapide et le meilleur, surpassant aisément le modèle o1 d’OpenAI.
Comment ajouter le LLM DeepSeek à votre Flow
Vous remarquerez que tous les composants LLM n’ont qu’une sortie. L’entrée ne passe pas par le composant, car il ne représente que le modèle, alors que la génération réelle s’effectue dans les Agents IA et Générateurs.
La sortie LLM est toujours violette. L’entrée LLM se trouve sur tout composant qui utilise l’IA pour générer du texte ou traiter des données. Vous pouvez voir les options en cliquant sur la sortie :

Cela vous permet de créer toutes sortes d’outils. Voyons le composant en action. Voici un Flow de chatbot IA simple utilisant DeepSeek R1 pour générer des réponses. Vous pouvez le considérer comme un chatbot DeepSeek basique.
Ce Flow Chatbot simple comprend :
- Entrée chat : Représente le message qu’un utilisateur envoie dans le chat.
- Historique chat : Permet au chatbot de se souvenir et de prendre en compte les réponses précédentes.
- Sortie chat : Représente la réponse finale du chatbot.
- Agent IA : Un agent IA autonome qui génère les réponses.
- LLM DeepSeek : La connexion aux modèles de génération DeepSeek.

Questions fréquemment posées
- Qu'est-ce que LLM DeepSeek dans FlowHunt ?
LLM DeepSeek est un composant dans FlowHunt qui vous permet de connecter et contrôler les modèles d'IA DeepSeek pour la génération de texte et d'image, permettant des chatbots puissants et des flux automatisés.
- Quels modèles DeepSeek sont pris en charge ?
FlowHunt prend en charge tous les derniers modèles DeepSeek, y compris DeepSeek R1, connu pour sa rapidité et ses performances, surtout comparé à d'autres modèles d'IA leaders.
- Comment puis-je personnaliser les paramètres de LLM DeepSeek ?
Vous pouvez ajuster le nombre maximal de tokens pour la longueur des réponses et la température pour la créativité, ainsi qu'alterner entre les modèles DeepSeek disponibles directement dans votre tableau de bord FlowHunt.
- Est-il nécessaire de connecter un composant LLM DeepSeek ?
Non, connecter un composant LLM est optionnel. Par défaut, FlowHunt utilise ChatGPT-4o, mais ajouter LLM DeepSeek vous permet d'alterner et de contrôler quel modèle d'IA alimente vos flux.
Essayez FlowHunt avec DeepSeek
Commencez à créer des chatbots d'IA et des outils d'automatisation plus intelligents en utilisant des modèles DeepSeek avancés—le tout sans configuration complexe ni abonnements multiples.