Connecter une IA à Slack : ajoutez Claude, GPT, Gemini, Grok, Llama et Mistral avec FlowHunt

Slack Slackbot AI Agents LLM

Connecter n’importe quel modèle d’IA à Slack — un flow, tous les LLM

Ajouter un assistant IA à Slack signifiait autrefois choisir un fournisseur, écrire du code d’intégration et tout reconstruire quand un meilleur modèle apparaissait six mois plus tard. Avec FlowHunt, l’intégration est découplée du modèle : vous bâtissez le flow Slack une seule fois, branchez le LLM voulu — Claude, GPT, Gemini, Grok, Llama, Mistral — et le changez à tout moment sans toucher au reste.

Ce guide couvre toute la configuration. La première moitié est identique pour chaque modèle. La seconde moitié explique quel modèle choisir pour quel cas d’usage, avec des notes spécifiques par famille de LLM. Sautez à la section qui correspond à votre stack ou lisez tout depuis le début.

Pourquoi mettre un agent IA dans Slack

Slack est l’endroit où les équipes posent leurs questions. Un agent IA qui y vit y répond instantanément — sans changer pour un autre outil de chat, dashboard ou base de connaissances. Déploiements courants :

  • Q&R interne : l’agent répond aux questions RH, IT ou produit depuis une base de connaissances
  • Triage support client : oriente les tickets entrants, rédige des réponses, escalade les cas limites
  • Assistant recherche : résume les URL partagées, lance des recherches web, récupère des données à la demande
  • Automatisation de workflow : déclenche des jobs planifiés, interroge des bases de données, poste des mises à jour de statut
  • Aide onboarding : guide les nouveaux arrivants à travers les processus, fait remonter les docs pertinents

Le bot vit dans Slack — l’adoption est automatique, personne n’a à apprendre un nouvel outil.

Logo

Prêt à développer votre entreprise?

Commencez votre essai gratuit aujourd'hui et voyez les résultats en quelques jours.

Configuration pas à pas de Slack avec FlowHunt

La configuration est identique quel que soit le modèle d’IA choisi. Choisissez votre modèle à l’étape 4 ; tout le reste est identique.

1. Connecter Slack à FlowHunt

Connectez-vous à votre compte FlowHunt et ouvrez l’onglet Integrations. Sélectionnez Slack, cliquez sur Connect et autorisez l’app sur l’écran OAuth de Slack. Accordez les permissions de lecture/écriture demandées par FlowHunt — elles permettent au bot de recevoir les messages et de poster des réponses dans votre workspace.

Sélection de Slack dans les intégrations FlowHunt

L’URL de votre workspace apparaît en haut à gauche de l’app Slack. Une fois autorisé, Slack est connecté et utilisable dans n’importe quel flow.

2. Créer un nouveau flow et ajouter le bloc Slack Message Received

Dans le constructeur de flows FlowHunt, glissez un composant Slack Message Received sur le canvas. Ce bloc écoute les messages Slack entrants et déclenche le reste du flow.

Configurez deux paramètres :

  • Channel et workspace : choisissez le workspace connecté et soit le workspace entier, soit un canal spécifique. Un canal dédié #ai-assistant est la configuration la plus propre.
  • Only Trigger on Mention : activez-le pour que le bot ne se déclenche que lorsqu’il est @-mentionné. Sinon, chaque message dans le canal déclenche le flow.
Configuration du composant Slack Message Received

3. Ajouter le composant AI Agent

Le bloc AI Agent est la couche de raisonnement du bot. Il prend le message de l’utilisateur, décide des outils à utiliser et formule la réponse.

  • Backstory : courte description de la persona et du périmètre du bot, p. ex. « Tu es un assistant Slack utile pour l’équipe ingénierie. »
  • Goal : objectif principal du bot, p. ex. « Réponds aux questions avec précision en utilisant tous les outils et sources de connaissance disponibles. Cite les sources quand c’est pertinent. »
Paramètres du composant AI Agent

4. Ajouter un composant LLM et choisir votre modèle

Connectez un composant LLM à l’AI Agent. C’est ici que vous choisissez quel modèle d’IA alimente le bot. FlowHunt a un composant LLM séparé par fournisseur — LLM OpenAI, LLM Anthropic, LLM Google, LLM Meta, LLM Mistral, LLM xAI — et dans chacun vous sélectionnez la variante précise du modèle.

C’est la seule étape qui diffère selon le modèle. Sautez à Choisissez le bon modèle d’IA pour une comparaison et des notes par famille.

Sélection du composant LLM dans FlowHunt

5. Ajouter des outils (optionnel mais recommandé)

L’AI Agent devient nettement plus utile quand il peut utiliser des outils. Les courants :

  • Google Search Toolrecherche web en direct pour information temps réel
  • URL Retriever — récupère et résume toute URL partagée dans Slack
  • Document Retriever — RAG sur votre propre base de connaissances (Notion, Confluence, Google Drive, fichiers)
  • Custom API Tools — appelle n’importe quel service interne acceptant HTTP

Les outils sont indépendants du modèle. N’importe quel LLM choisi à l’étape 4 peut utiliser n’importe quel outil branché.

Ajouter des outils à l'AI Agent

6. Ajouter le bloc Slack Send Message et tester

Terminez le flow avec un composant Slack Send Message, configuré pour le même canal et workspace qu’à l’étape 2. Sauvegardez le flow, ouvrez Slack et @-mentionnez le bot dans votre canal de test. Le bot devrait répondre en utilisant le modèle choisi à l’étape 4.

Composant Slack Send Message

C’est toute la configuration. Changer de modèle plus tard est un changement en un clic à l’étape 4 — pas d’édition de code, pas de reconstruction de flow.

Choisissez le bon modèle d’IA pour Slack

Chaque grande famille de LLM fonctionne dans le flow Slack de FlowHunt. Les différences se résument au coût, à la latence, à la fenêtre de contexte, à la profondeur de raisonnement et à la qualité du tool-calling. Utilisez le tableau pour pré-sélectionner, puis lisez la section spécifique à la famille pour les notes de configuration.

Famille de modèleIdéal pourLatenceCoûtNotes
Claude (Anthropic)Analyse long-contexte, raisonnement soigné, revue de codeMoyenneMoyen–ÉlevéExcellent pour suivre des instructions nuancées ; idéal Q&R interne sur docs
GPT / série o (OpenAI)Polyvalent, écosystème d’outils large, multimodalFaible–MoyenFaible (mini) – Élevé (série o)GPT-4o Mini est le sweet spot par défaut ; o1/o3 pour raisonnement difficile
Gemini (Google)Énormes fenêtres de contexte, rapide, multimodal, ancré rechercheFaibleFaible–Moyen1.5 Pro gère 1M+ tokens ; idéal Q&R sur documents entiers
Grok (xAI)Requêtes temps réel / actu, données X (Twitter), ton décontractéFaibleMoyenMeilleur quand le bot doit connaître l’actualité
Llama (Meta)Déploiements self-hosted/privés, charges sensibles aux coûtsSelon hébergementFaible (self-hosted)Poids ouverts — quand la résidence des données compte
MistralOpen-weight, bon coût/qualité, hébergement EU-friendlyFaibleFaible–MoyenMistral Large concurrence GPT-4o à moindre coût

Choisissez-en un pour démarrer. Changer de modèle dans FlowHunt est un changement en un clic dans le composant LLM, donc trop réfléchir au choix initial ne paie pas — déployez avec un défaut sensé, mesurez la qualité sur du trafic Slack réel, itérez.

Notes par famille de modèle

Chaque section ci-dessous est autonome. Choisissez la section de la famille que vous connectez et suivez les notes.

Anthropic Claude

Claude est la famille de LLM d’Anthropic, idéale pour des Slackbots gérant Q&R interne nuancée, résumé de documents, revue de code et suivi soigné d’instructions. Pour connecter Claude à Slack, glissez le composant LLM Anthropic à l’étape 4 et choisissez la variante :

  • Claude 3 Haiku — le plus rapide et le moins cher, idéal pour réponses FAQ haute volumétrie
  • Claude 3.5 Sonnet — le cheval de trait : raisonnement fort, contexte large, bon rapport prix/performance
  • Claude 4.5 Sonnet / Opus — top-tier pour le raisonnement, le code et l’analyse de longs documents les plus difficiles
  • Les variantes plus anciennes (Claude 2, Claude 3 base) fonctionnent encore mais sont dépassées par Sonnet 3.5+

Pour des Slackbots de connaissance interne sur Notion ou Confluence, Claude 3.5 Sonnet plus Document Retriever est le point de départ le plus fiable.

OpenAI GPT et série o

Les modèles GPT et série o d’OpenAI sont le choix le plus large pour Slack — performances généralistes solides, le tool-calling le plus mature et input multimodal (vision, audio). Glissez le composant LLM OpenAI à l’étape 4 et choisissez la variante :

  • GPT-4o Mini — le défaut. Rapide, bon marché, gère 95 % des cas d’usage Slack
  • GPT-4o — quand vous voulez plus de qualité, compréhension d’images ou contexte plus long
  • GPT-4 Vision Preview — quand le bot doit interpréter des images partagées dans Slack (largement remplacé par GPT-4o)
  • o1 Mini / o1 Preview / o3 — modèles de raisonnement pour tâches analytiques difficiles (plus lents, plus chers ; à utiliser avec parcimonie)
  • GPT-5 — frontier-tier, là où c’est disponible

Pour la plupart des équipes : démarrez avec GPT-4o Mini. Promouvez vers GPT-4o ou o1 uniquement sur les flows où les utilisateurs se plaignent de la qualité.

Google Gemini

Google Gemini est le choix le plus fort quand la fenêtre de contexte compte — Gemini 1.5 Pro gère plus d'1M tokens, suffisant pour passer des bases de code entières ou des jeux de documents en une seule requête Slack. Glissez le composant LLM Google à l’étape 4 et choisissez la variante :

  • Gemini 1.5 Flash / Flash 8B — rapide et bon marché ; bon pour canaux Slack à haut volume
  • Gemini 2.0 Flash / 2.5 Flash — générations Flash plus récentes, plus rapides et plus intelligentes que 1.5
  • Gemini 1.5 Pro / 2.5 Pro — top-tier avec contexte massif ; idéal Q&R sur documents entiers
  • Gemini 3 Flash — dernier modèle rapide

Si votre Slackbot doit raisonner sur toute votre base de connaissances en une seule passe (sans étape de retrieval), la fenêtre de contexte de Gemini Pro est la réponse la plus propre.

xAI Grok

xAI Grok s’intègre dans le flow Slack de FlowHunt comme les autres modèles — glissez le composant LLM xAI (ou le composant LLM OpenAI selon votre version FlowHunt) et choisissez la variante de Grok. La force distinctive de Grok est la connaissance temps réel — accès à l’information en direct y compris les données X (Twitter) — idéal quand le Slackbot a besoin de contexte d’actualité : actualités, données de marché, nouveautés. Combinez-le avec Google Search Tool pour un accès web encore plus large.

Meta Llama

La famille Llama de Meta est l’option open-weight — utilisez-la quand résidence des données, self-hosting ou coût par token excluent les API hébergées. Glissez le composant LLM Meta à l’étape 4 et choisissez la variante :

  • Llama 3.2 1B / 3B — petit, rapide, fonctionne sur matériel modeste
  • Llama 3.3 Versatile — flagship actuel, compétitif avec GPT-4o sur de nombreuses tâches
  • Llama 4 (où disponible) — nouvelle génération

Llama est la bonne réponse quand sécurité ou conformité exigent que le modèle tourne sur votre infrastructure, ou quand un fort volume de messages rend les coûts d’API hébergée prohibitifs.

Mistral

Mistral est le concurrent européen open-weight — modèles forts, hébergement EU-friendly et bon rapport prix-performance. Glissez le composant LLM Mistral à l’étape 4 et choisissez la variante :

  • Mistral 7B — petit et rapide, fonctionne sur matériel standard
  • Mistral 8x7B (Mixtral) — mixture-of-experts, performances généralistes solides
  • Mistral Large — flagship, concurrence GPT-4o à moindre prix

Choisissez Mistral quand la résidence des données UE compte, ou quand vous voulez la flexibilité open-weight avec une qualité proche du frontier.

Schémas de Slackbot courants

Trois schémas de flow couvrent la plupart des déploiements Slack. Construisez l’un d’eux par-dessus la configuration ci-dessus en ajustant les outils et le prompt de l’AI Agent :

  • Assistant base de connaissances — ajoutez Document Retriever pointant vers Notion/Confluence/Google Drive/fichiers. Le bot répond en citant les sources internes.
  • Assistant recherche web — ajoutez Google Search Tool et URL Retriever. Le bot tire du contexte web en direct et résume les URL partagées.
  • Agent workflow — ajoutez Custom API Tools qui appellent vos services internes. Le bot déclenche des jobs, interroge des dashboards, poste des mises à jour.

Ces schémas se combinent : un seul flow Slack peut combiner retrieval base de connaissances, recherche web en direct et appels API internes, le LLM choisissant l’outil adapté à chaque requête.

Dépannage

Le bot ne répond pas aux messages. Vérifiez que « Only Trigger on Mention » correspond à la façon dont vous testez — s’il est activé, vous devez @-mentionner le bot. Confirmez que le canal dans Slack Message Received correspond au canal où vous postez.

Le bot répond mais la réponse est mauvaise. Itérez d’abord sur backstory et goal de l’AI Agent — c’est plus impactant que changer de modèle. Si la qualité reste mauvaise après itération de prompt, promouvez vers un modèle plus fort dans le composant LLM (Mini → standard → top-tier).

Erreurs de permissions après l’auth Slack. Reconnectez l’intégration Slack dans l’onglet Integrations de FlowHunt et ré-accordez les permissions. Slack invalide parfois les tokens après changements de propriétaire de workspace.

Les longues réponses sont tronquées dans Slack. Slack a une limite de caractères par message. Ajoutez une étape de post-traitement au flow pour découper les réponses longues, ou instruisez l’AI Agent dans son goal de garder les réponses sous 3 000 caractères en postant dans Slack.

Déployez votre Slackbot IA

Toute la configuration — connecter Slack, bâtir le flow, choisir un modèle — est un projet d’une soirée dans FlowHunt. Le flow que vous bâtissez aujourd’hui fonctionne avec n’importe quel modèle futur : quand GPT-6 ou Claude 5 sortiront, vous changez le composant LLM et le reste continue.

Démarrez avec le tier gratuit de FlowHunt , connectez Slack et déployez un Slackbot IA fonctionnel avant le déjeuner.

Questions fréquemment posées

Arshia est ingénieure en workflows d'IA chez FlowHunt. Avec une formation en informatique et une passion pour l’IA, elle se spécialise dans la création de workflows efficaces intégrant des outils d'IA aux tâches quotidiennes, afin d’accroître la productivité et la créativité.

Arshia Kahani
Arshia Kahani
Ingénieure en workflows d'IA

Déployez votre Slackbot IA en quelques minutes

Le constructeur de flows no-code de FlowHunt connecte Slack à chaque grand LLM — Claude, GPT, Gemini, Grok, Llama, Mistral — via un flow unique et cohérent. Sans code, sans infrastructure à maintenir.

En savoir plus

Intégration Slack
Intégration Slack

Intégration Slack

L’intégration Slack de FlowHunt permet une collaboration IA fluide directement dans votre espace de travail Slack. Ajoutez n’importe quel Flow dans Slack, autom...

8 min de lecture
Slack Integration +3
Slack
Slack

Slack

Intégrez FlowHunt à Slack pour automatiser la messagerie, déclencher des workflows et garder votre équipe informée grâce à des flux alimentés par l'IA.

2 min de lecture
AI Slack +3