KI mit Slack verbinden: Claude, GPT, Gemini, Grok, Llama & Mistral mit FlowHunt

Slack Slackbot AI Agents LLM

Jedes KI-Modell mit Slack verbinden – ein Flow, jedes LLM

Einen KI-Assistenten in Slack einzubauen bedeutete früher: einen Anbieter wählen, Integrationscode schreiben und alles neu bauen, sobald sechs Monate später ein besseres Modell erscheint. Mit FlowHunt sind Integration und Modell entkoppelt: Sie bauen den Slack-Flow einmal, stecken das LLM Ihrer Wahl ein – Claude, GPT, Gemini, Grok, Llama, Mistral – und tauschen es jederzeit aus, ohne den Rest anzufassen.

Diese Anleitung führt durch das gesamte Setup. Die erste Hälfte ist für jedes Modell identisch. Die zweite Hälfte erklärt, welches Modell für welchen Anwendungsfall passt, mit Hinweisen pro LLM-Familie. Springen Sie zum passenden Abschnitt oder lesen Sie von Anfang an.

Warum ein KI-Agent in Slack

Slack ist der Ort, an dem Teams Fragen stellen. Ein KI-Agent dort beantwortet sie sofort – ohne Wechsel zu einem separaten Chat-Tool, Dashboard oder einer Knowledge Base. Häufige Einsatzfälle:

  • Interne Q&A: Agent beantwortet HR-, IT- oder Produktfragen aus einer Wissensdatenbank
  • Kundensupport-Triage: leitet eingehende Tickets weiter, formuliert Antworten, eskaliert Edge Cases
  • Recherche-Assistent: fasst geteilte URLs zusammen, führt Web-Suchen aus, ruft Daten auf Anfrage ab
  • Workflow-Automatisierung: startet geplante Jobs, fragt Datenbanken ab, postet Status-Updates
  • Onboarding-Helfer: führt neue Mitarbeiter durch Prozesse und zeigt relevante Dokumente

Der Bot lebt in Slack – die Akzeptanz ist automatisch, niemand muss ein neues Tool lernen.

Logo

Bereit, Ihr Geschäft zu erweitern?

Starten Sie heute Ihre kostenlose Testversion und sehen Sie innerhalb weniger Tage Ergebnisse.

Schritt-für-Schritt-Slack-Setup mit FlowHunt

Das Setup ist identisch, unabhängig vom gewählten KI-Modell. Wählen Sie Ihr Modell in Schritt 4; alles andere bleibt gleich.

1. Slack mit FlowHunt verbinden

Melden Sie sich bei FlowHunt an und öffnen Sie den Tab Integrations. Wählen Sie Slack, klicken Sie auf Connect und autorisieren Sie die App auf der OAuth-Seite von Slack. Erteilen Sie die von FlowHunt angeforderten Lese-/Schreibberechtigungen – damit kann der Bot Nachrichten empfangen und Antworten in Ihrem Workspace posten.

Slack aus den FlowHunt-Integrationen auswählen

Ihre Workspace-URL finden Sie oben links in der Slack-Desktop- oder Web-App. Sobald autorisiert, ist Slack verbunden und in jedem Flow nutzbar.

2. Neuen Flow anlegen und Slack-Message-Received-Block hinzufügen

Im FlowHunt-Flow-Builder ziehen Sie die Komponente Slack Message Received auf die Arbeitsfläche. Dieser Block lauscht auf eingehende Slack-Nachrichten und löst den Rest des Flows aus.

Konfigurieren Sie zwei Einstellungen:

  • Channel und Workspace: wählen Sie den verbundenen Workspace und entweder den gesamten Workspace oder einen bestimmten Kanal. Ein dedizierter #ai-assistant-Kanal ist die sauberste Lösung.
  • Only Trigger on Mention: aktivieren Sie diese Option, damit der Bot nur reagiert, wenn er @-erwähnt wird. Andernfalls löst jede Nachricht im Kanal den Flow aus.
Konfiguration der Komponente Slack Message Received

3. AI-Agent-Komponente hinzufügen

Der AI Agent-Block ist die Reasoning-Schicht des Bots. Er nimmt die Nachricht des Nutzers, entscheidet, welche Tools verwendet werden, und formuliert die Antwort.

  • Backstory: kurze Beschreibung von Persona und Scope, z. B. „Du bist ein hilfreicher Slack-Assistent für das Engineering-Team."
  • Goal: das Hauptziel des Bots, z. B. „Beantworte Fragen präzise mithilfe aller verfügbaren Tools und Wissensquellen. Zitiere Quellen, wenn relevant."
AI-Agent-Komponenten-Einstellungen

4. LLM-Komponente hinzufügen und Modell wählen

Verbinden Sie eine LLM-Komponente mit dem AI Agent. Hier wählen Sie, welches KI-Modell den Bot antreibt. FlowHunt hat eine separate LLM-Komponente pro Anbieter – LLM OpenAI, LLM Anthropic, LLM Google, LLM Meta, LLM Mistral, LLM xAI – und in jeder wählen Sie die genaue Modellvariante.

Dies ist der einzige modellabhängige Schritt. Springen Sie zu Das richtige KI-Modell wählen für einen Vergleich und Hinweise pro Familie.

LLM-Komponentenauswahl in FlowHunt

5. Tools hinzufügen (optional, aber empfohlen)

Der AI Agent wird deutlich nützlicher, wenn er Tools nutzen kann. Häufige Tools:

  • Google Search Tool – Live-Websuche für aktuelle Informationen
  • URL Retriever – holt und fasst jede in Slack geteilte URL zusammen
  • Document Retriever – RAG über Ihre eigene Wissensbasis (Notion, Confluence, Google Drive, Datei-Uploads)
  • Custom API Tools – ruft jeden internen Service auf, der HTTP akzeptiert

Tools sind modellunabhängig. Jedes in Schritt 4 gewählte LLM kann jedes verdrahtete Tool verwenden.

Tools zum AI Agent hinzufügen

6. Slack-Send-Message-Block hinzufügen und testen

Schließen Sie den Flow mit einer Slack Send Message-Komponente ab, konfiguriert für denselben Kanal und Workspace wie in Schritt 2. Speichern Sie den Flow, öffnen Sie Slack und @-erwähnen Sie den Bot in Ihrem Test-Kanal. Der Bot sollte mit dem in Schritt 4 gewählten Modell antworten.

Slack-Send-Message-Komponente

Das ist das gesamte Setup. Modellwechsel später ist eine Ein-Klick-Änderung in Schritt 4 – keine Code-Änderungen, kein Flow-Neubau.

Das richtige KI-Modell für Slack wählen

Jede große LLM-Familie funktioniert in FlowHunts Slack-Flow. Die Unterschiede liegen in Kosten, Latenz, Kontextfenster, Reasoning-Tiefe und Tool-Calling-Qualität. Verwenden Sie die Tabelle zum Eingrenzen, dann lesen Sie den familienspezifischen Abschnitt für Setup-Hinweise.

ModellfamilieStärkenLatenzKostenHinweise
Claude (Anthropic)Long-Context-Analyse, sorgfältiges Reasoning, Code-ReviewMittelMittel–HochFolgt nuancierten Anweisungen sehr gut; ideal für interne Q&A über Dokumente
GPT / o-Serie (OpenAI)Allzweck, breites Tool-Ökosystem, multimodalNiedrig–MittelNiedrig (Mini) – Hoch (o-Serie)GPT-4o Mini ist der Standard-Sweetspot; o1/o3 für harte Reasoning-Aufgaben
Gemini (Google)Riesige Kontextfenster, schnell, multimodal, Web-groundedNiedrigNiedrig–Mittel1.5 Pro verarbeitet 1M+ Tokens; ideal für Whole-Doc-Slack-Q&A
Grok (xAI)Echtzeit-/News-Wissen, X (Twitter)-Daten, lockerer TonNiedrigMittelBeste Wahl, wenn der Bot aktuelles Wissen braucht
Llama (Meta)Self-Hosting / private Deployments, kostensensitive WorkloadsHostingabhängigNiedrig (self-hosted)Open Weights – wenn Datenresidenz wichtig ist
MistralOpen-Weight, gute Kosten/Qualität, EU-freundliches HostingNiedrigNiedrig–MittelMistral Large konkurriert mit GPT-4o zu niedrigeren Kosten

Wählen Sie eines, um zu starten. Modellwechsel in FlowHunt ist eine Ein-Klick-Änderung in der LLM-Komponente, daher lohnt sich Overthinking nicht – mit sinnvoller Default-Wahl ausliefern, Qualität an echtem Slack-Traffic messen, iterieren.

Hinweise pro Modellfamilie

Jeder Abschnitt unten ist eigenständig. Wählen Sie den Abschnitt für die Modellfamilie, die Sie verbinden, und folgen Sie den Hinweisen.

Anthropic Claude

Claude ist Anthropics LLM-Familie, ideal für Slackbots, die nuancierte interne Q&A, Dokumentzusammenfassung, Code-Review und sorgfältige Anweisungsbefolgung übernehmen. Um Claude an Slack anzubinden, ziehen Sie in Schritt 4 die Komponente LLM Anthropic und wählen Sie die Variante:

  • Claude 3 Haiku – am schnellsten und günstigsten, ideal für High-Volume-FAQ-Antworten
  • Claude 3.5 Sonnet – das Arbeitstier: starkes Reasoning, großer Kontext, gutes Preis-Leistungs-Verhältnis
  • Claude 4.5 Sonnet / Opus – Top-Tier für die härtesten Reasoning-, Code- und Long-Document-Aufgaben
  • Ältere Varianten (Claude 2, Claude 3 Base) funktionieren noch, sind aber von Sonnet 3.5+ überholt

Für interne Knowledge-Base-Slackbots über Notion oder Confluence ist Claude 3.5 Sonnet plus Document Retriever der zuverlässigste Startpunkt.

OpenAI GPT und o-Serie

OpenAIs GPT- und o-Serie-Modelle sind die breiteste Wahl für Slack – starke Allzweck-Performance, das ausgereifteste Tool-Calling und multimodaler Input (Vision, Audio). Ziehen Sie in Schritt 4 die Komponente LLM OpenAI und wählen Sie die Variante:

  • GPT-4o Mini – der Standard. Schnell, günstig, deckt 95 % der Slack-Anwendungsfälle ab
  • GPT-4o – wenn höhere Qualität, Bildverständnis oder längerer Kontext benötigt werden
  • GPT-4 Vision Preview – wenn der Bot in Slack geteilte Bilder interpretieren muss (weitgehend von GPT-4o ersetzt)
  • o1 Mini / o1 Preview / o3 – Reasoning-Modelle für harte analytische Aufgaben (langsamer, teurer; sparsam einsetzen)
  • GPT-5 – Frontier-Tier, wo verfügbar

Für die meisten Teams: mit GPT-4o Mini starten. Auf GPT-4o oder o1 nur dort hochstufen, wo Nutzer über Antwortqualität klagen.

Google Gemini

Google Gemini ist die stärkste Wahl, wenn das Kontextfenster zählt – Gemini 1.5 Pro verarbeitet über 1M Tokens, genug, um ganze Codebasen oder Dokumentensätze in eine einzige Slack-Anfrage zu packen. Ziehen Sie in Schritt 4 die Komponente LLM Google und wählen Sie die Variante:

  • Gemini 1.5 Flash / Flash 8B – schnell und günstig; gut für High-Volume-Slack-Kanäle
  • Gemini 2.0 Flash / 2.5 Flash – neuere Flash-Generationen, schneller und intelligenter als 1.5
  • Gemini 1.5 Pro / 2.5 Pro – Top-Tier mit massivem Kontext; ideal für Whole-Document-Q&A
  • Gemini 3 Flash – neuestes schnelles Modell

Wenn Ihr Slackbot über Ihre gesamte Wissensbasis in einem Durchgang nachdenken soll (kein Retrieval-Schritt), ist Geminis Pro-Kontextfenster die sauberste Antwort.

xAI Grok

xAI Grok wird in FlowHunts Slack-Flow genauso eingebunden wie die anderen Modelle – ziehen Sie die Komponente LLM xAI (oder die LLM-OpenAI-Komponente, je nach FlowHunt-Version) und wählen Sie die Grok-Variante. Groks Stärke ist Echtzeit-Wissen – Zugriff auf Live-Informationen einschließlich X-(Twitter)-Daten – ideal, wenn der Slackbot aktuelle Kontexte braucht: Nachrichten, Marktdaten, Breaking News. Kombinieren Sie es mit dem Google Search Tool für noch breiteren Web-Zugriff.

Meta Llama

Metas Llama-Familie ist die Open-Weight-Option – nutzen Sie sie, wenn Datenresidenz, Self-Hosting oder Kosten pro Token Hosted-APIs ausschließen. Ziehen Sie in Schritt 4 die Komponente LLM Meta und wählen Sie die Variante:

  • Llama 3.2 1B / 3B – klein, schnell, läuft auf bescheidener Hardware
  • Llama 3.3 Versatile – aktueller Flagship, in vielen Aufgaben mit GPT-4o konkurrenzfähig
  • Llama 4 (wo verfügbar) – neue Generation

Llama ist die richtige Antwort, wenn Security oder Compliance verlangen, dass das Modell auf eigener Infrastruktur läuft, oder wenn hohe Nachrichtenmengen Hosted-API-Kosten unwirtschaftlich machen.

Mistral

Mistral ist der europäische Open-Weight-Konkurrent – starke Modelle, EU-freundliches Hosting, gutes Preis-Leistungs-Verhältnis. Ziehen Sie in Schritt 4 die Komponente LLM Mistral und wählen Sie die Variante:

  • Mistral 7B – klein und schnell, läuft auf Standard-Hardware
  • Mistral 8x7B (Mixtral) – Mixture-of-Experts, starke Allzweck-Performance
  • Mistral Large – Flagship, konkurriert mit GPT-4o bei niedrigerem Preis

Wählen Sie Mistral, wenn EU-Datenresidenz wichtig ist oder Sie Open-Weight-Flexibilität mit Frontier-naher Qualität wünschen.

Häufige Slackbot-Muster

Drei Flow-Muster decken die meisten Slack-Deployments ab. Bauen Sie eines davon auf das Setup oben, indem Sie Tools und Prompt des AI Agent anpassen:

  • Knowledge-Base-Assistent – Document Retriever auf Notion/Confluence/Google Drive/Datei-Uploads. Bot beantwortet Fragen mit Quellenangabe.
  • Web-Recherche-Assistent – Google Search Tool und URL Retriever. Bot zieht Live-Web-Kontext und fasst geteilte URLs zusammen.
  • Workflow-Agent – Custom API Tools für interne Services. Bot triggert Jobs, fragt Dashboards ab, postet Statusupdates.

Diese Muster lassen sich kombinieren: ein einziger Slack-Flow vereint Knowledge-Base-Retrieval, Live-Websuche und interne API-Aufrufe – das LLM wählt das passende Tool pro Anfrage.

Troubleshooting

Der Bot antwortet nicht. Prüfen Sie, dass „Only Trigger on Mention" zur Testweise passt – wenn aktiviert, müssen Sie den Bot @-erwähnen. Bestätigen Sie, dass der Kanal in Slack Message Received dem Test-Kanal entspricht.

Der Bot antwortet, aber die Qualität ist schlecht. Iterieren Sie zuerst über Backstory und Goal des AI Agent – das wirkt stärker als ein Modellwechsel. Wenn Qualität nach Prompt-Iteration noch schlecht ist, in der LLM-Komponente auf ein stärkeres Modell hochstufen (Mini → Standard → Top-Tier).

Permission-Fehler nach Slack-Auth. Slack-Integration in FlowHunts Integrations-Tab neu verbinden und Berechtigungen erneut erteilen. Slack invalidiert gelegentlich Tokens nach Owner-Wechseln.

Lange Antworten werden in Slack abgeschnitten. Slack hat ein Zeichenlimit pro Nachricht. Fügen Sie einen Post-Processing-Schritt zum Splitten langer Antworten hinzu oder weisen Sie den AI Agent im Goal an, Antworten unter 3.000 Zeichen zu halten.

Ihren KI-Slackbot ausliefern

Das gesamte Setup – Slack verbinden, Flow bauen, Modell wählen – ist in FlowHunt ein Abend-Projekt. Der heute gebaute Flow funktioniert mit jedem zukünftigen Modell: wenn GPT-6 oder Claude 5 erscheinen, tauschen Sie die LLM-Komponente und der Rest läuft weiter.

Starten Sie mit dem kostenlosen Tarif von FlowHunt , verbinden Sie Slack und liefern Sie einen funktionierenden KI-Slackbot vor dem Mittagessen aus.

Häufig gestellte Fragen

Arshia ist eine AI Workflow Engineerin bei FlowHunt. Mit einem Hintergrund in Informatik und einer Leidenschaft für KI spezialisiert sie sich darauf, effiziente Arbeitsabläufe zu entwickeln, die KI-Tools in alltägliche Aufgaben integrieren und so Produktivität und Kreativität steigern.

Arshia Kahani
Arshia Kahani
AI Workflow Engineerin

KI-Slackbot in Minuten ausliefern

Der No-Code-Flow-Builder von FlowHunt verbindet Slack mit jedem großen LLM – Claude, GPT, Gemini, Grok, Llama, Mistral – über einen einheitlichen Flow. Ohne Code, ohne Infrastruktur.

Mehr erfahren

Slack-Integration
Slack-Integration

Slack-Integration

Die Slack-Integration von FlowHunt ermöglicht nahtlose KI-Zusammenarbeit direkt in deinem Slack-Workspace. Bringe beliebige Flows in Slack, automatisiere Workfl...

7 Min. Lesezeit
Slack Integration +3
FlowHunt 2.6.12: Slack-Integration, Intent-Klassifizierung und mehr
FlowHunt 2.6.12: Slack-Integration, Intent-Klassifizierung und mehr

FlowHunt 2.6.12: Slack-Integration, Intent-Klassifizierung und mehr

FlowHunt 2.6.12 führt die Slack-Integration, Intent-Klassifizierung und das Gemini-Modell ein und erweitert so die Funktionen des KI-Chatbots, Kunden-Insights u...

3 Min. Lesezeit
FlowHunt AI Chatbot +5
Slack
Slack

Slack

Integrieren Sie FlowHunt mit Slack, um Nachrichten zu automatisieren, Workflows auszulösen und Ihr Team mit KI-gestützten Flows auf dem Laufenden zu halten.

2 Min. Lesezeit
AI Slack +3