Automação de IA

Conecte IA ao Slack: adicione Claude, GPT, Gemini, Grok, Llama e Mistral com o FlowHunt

Slack Slackbot AI Agents LLM

Conecte qualquer modelo de IA ao Slack — um fluxo, todos os LLMs

Adicionar um assistente de IA ao Slack costumava significar escolher um fornecedor, escrever código de integração e reconstruir tudo quando um modelo melhor surgisse seis meses depois. Com o FlowHunt, a integração é desacoplada do modelo: você constrói o fluxo do Slack uma vez, conecta o LLM que quiser — Claude, GPT, Gemini, Grok, Llama, Mistral — e troca a qualquer momento sem mexer no resto.

Este guia mostra a configuração completa. A primeira metade é igual para todo modelo. A segunda detalha qual modelo escolher para cada caso de uso, com observações específicas para cada família de LLM. Pule para a seção que combina com seu stack ou leia do início ao fim se estiver começando do zero.

Por que colocar um agente de IA no Slack

O Slack é onde as equipes fazem perguntas. Um agente de IA que vive ali responde instantaneamente — sem precisar trocar de contexto para uma ferramenta de chat, dashboard ou base de conhecimento separada. Implantações comuns:

  • Q&A interno: o agente responde dúvidas de RH, TI ou produto a partir de uma base de conhecimento da empresa
  • Triagem de suporte ao cliente: roteia tickets recebidos, esboça respostas, escala casos especiais
  • Assistente de pesquisa: resume URLs compartilhadas, faz buscas na web, traz dados sob demanda
  • Automação de fluxos de trabalho: dispara tarefas agendadas, consulta bancos de dados, publica atualizações de status
  • Auxiliar de onboarding: orienta novos colaboradores em processos, mostra documentação relevante

O bot vive no Slack, então a adoção é automática — ninguém precisa aprender uma ferramenta nova.

Logo

Pronto para expandir seu negócio?

Comece seu teste gratuito hoje e veja resultados em dias.

Configuração passo a passo do Slack com o FlowHunt

A configuração é idêntica independentemente do modelo de IA escolhido. Você escolhe o modelo no passo 4; tudo o mais permanece igual.

1. Conecte o Slack ao FlowHunt

Faça login na sua conta FlowHunt e abra a aba Integrations. Selecione Slack, clique em Connect e autorize o app na tela de OAuth do Slack. Conceda as permissões de leitura/escrita que o FlowHunt solicita — elas permitem que o bot receba mensagens e poste respostas no seu workspace.

Selecionando o Slack nas integrações do FlowHunt

A URL do seu workspace aparece no canto superior esquerdo do Slack desktop ou web — copie de lá se o FlowHunt pedir. Depois de autorizado, o Slack está conectado e pronto para uso em qualquer fluxo.

2. Crie um novo fluxo e adicione o bloco Slack Message Received

No construtor de fluxos do FlowHunt, arraste um componente Slack Message Received para o canvas. Esse bloco escuta mensagens recebidas no Slack e dispara o restante do fluxo.

Configure dois ajustes:

  • Channel and workspace: escolha o workspace que você conectou e selecione o workspace inteiro ou um canal específico. Um canal dedicado #ai-assistant é a configuração mais limpa.
  • Only Trigger on Mention: ative para que o bot só dispare quando alguém o mencionar com @. Sem isso, toda mensagem no canal acionará o fluxo.
Configuração do componente Slack Message Received

3. Adicione o componente AI Agent

O bloco AI Agent é a camada de raciocínio do bot. Ele recebe a mensagem do usuário, decide quais ferramentas usar e formula a resposta.

  • Backstory: uma breve descrição da persona e do escopo do bot, por exemplo, “Você é um assistente prestativo do Slack para a equipe de engenharia.”
  • Goal: o objetivo principal do bot, por exemplo, “Responda perguntas com precisão usando todas as ferramentas e fontes de conhecimento disponíveis. Cite fontes quando relevante.”
Configurações do componente AI Agent

4. Adicione um componente LLM e escolha seu modelo

Conecte um componente LLM ao AI Agent. É aqui que você escolhe qual modelo de IA alimenta o bot. O FlowHunt tem um componente LLM separado para cada provedor — LLM OpenAI, LLM Anthropic, LLM Google, LLM Meta, LLM Mistral, LLM xAI — e dentro de cada um você seleciona a variante específica.

Esta é a única etapa que muda por modelo. Pule para a seção Escolha o modelo de IA certo abaixo para uma comparação e notas por família.

Seleção do componente LLM no FlowHunt

5. Adicione ferramentas (opcional, mas recomendado)

O AI Agent fica drasticamente mais útil quando pode usar ferramentas. As mais comuns:

  • Google Search Tool — busca web ao vivo para informações em tempo real
  • URL Retriever — busca e resume qualquer URL compartilhada no Slack
  • Document Retriever — RAG sobre sua própria base de conhecimento (Notion, Confluence, Google Drive, uploads de arquivos)
  • Ferramentas de API personalizadas — chame qualquer serviço interno que aceite HTTP

As ferramentas são agnósticas de modelo. Qualquer LLM escolhido no passo 4 pode usar qualquer ferramenta que você conectar.

Adicionando ferramentas ao AI Agent

6. Adicione o bloco Slack Send Message e teste

Finalize o fluxo com um componente Slack Send Message, configurado para o mesmo canal e workspace do passo 2. Salve o fluxo, abra o Slack e mencione o bot com @ no seu canal de teste. O bot deve responder usando o modelo escolhido no passo 4.

Componente Slack Send Message

Essa é toda a configuração. Trocar de modelo depois é uma mudança de um clique no passo 4 — sem edição de código, sem reconstrução de fluxo.

Escolha o modelo de IA certo para o Slack

Toda família principal de LLM funciona no fluxo do Slack do FlowHunt. As diferenças se resumem a custo, latência, janela de contexto, profundidade de raciocínio e qualidade de chamada de ferramentas. Use a tabela para fazer uma triagem inicial e depois leia a seção específica da família para notas de configuração.

Família de modelosMelhor paraLatênciaCustoNotas
Claude (Anthropic)Análise de contexto longo, raciocínio cuidadoso, revisão de códigoMédiaMédia–AltaForte em seguir instruções nuançadas; excelente para Q&A interno sobre documentos
GPT / série o (OpenAI)Uso geral, ecossistema amplo de ferramentas, multimodalBaixa–MédiaBaixa (mini) – Alta (série o)GPT-4o Mini é o ponto ideal padrão; o1 / o3 para raciocínio difícil
Gemini (Google)Janelas de contexto enormes, multimodal rápido, ancorado em buscaBaixaBaixa–Média1.5 Pro lida com 1M+ tokens; ótimo para Q&A de documento inteiro no Slack
Grok (xAI)Consultas em tempo real / com noção de notícias, dados do X (Twitter), tom casualBaixaMédiaMelhor quando o bot precisa de noção de eventos atuais
Llama (Meta)Implantações auto-hospedadas / privadas, cargas sensíveis a custoDepende do hostBaixo (auto-hospedado)Pesos abertos — use quando residência de dados importa
MistralPesos abertos, equilíbrio de custo/qualidade, hospedagem amigável à UEBaixaBaixa–MédiaMistral Large compete com GPT-4o a custo menor

Escolha um para começar. Trocar modelos no FlowHunt é uma mudança de um clique no componente LLM, então pensar demais na escolha inicial não compensa — entregue com um padrão sensato, meça a qualidade no tráfego real do Slack e itere.

Notas de configuração por família

Cada seção abaixo é independente. Escolha a seção da família do modelo que você está conectando e siga as notas dela.

Anthropic Claude

Claude é a família de LLMs da Anthropic, bem adequada para Slackbots que lidam com Q&A interno nuançado, sumarização de documentos, revisão de código e seguimento cuidadoso de instruções. Para conectar Claude ao Slack, arraste o componente LLM Anthropic no passo 4 e escolha a variante:

  • Claude 3 Haiku — o mais rápido e barato, ideal para respostas de FAQ em alto volume
  • Claude 3.5 Sonnet — o cavalo de batalha: raciocínio forte, contexto grande, boa relação preço-desempenho
  • Claude 4.5 Sonnet / Opus — top de linha para os casos mais difíceis de raciocínio, código e análise de documentos longos
  • Variantes mais antigas (Claude 2, Claude 3 base) ainda funcionam, mas foram superadas pelo Sonnet 3.5+

Para Slackbots de conhecimento interno sobre Notion ou Confluence, Claude 3.5 Sonnet com um Document Retriever é o ponto de partida mais confiável.

OpenAI GPT e série o

Os modelos GPT e série o da OpenAI são a escolha mais ampla para o Slack — desempenho de uso geral forte, a chamada de ferramentas mais madura e entrada multimodal (visão, áudio). Arraste o componente LLM OpenAI no passo 4 e escolha a variante:

  • GPT-4o Mini — o padrão. Rápido, barato, lida com 95% dos casos de uso no Slack
  • GPT-4o — quando você precisa de qualidade superior, compreensão de imagem ou contexto mais longo
  • GPT-4 Vision Preview — quando o bot precisa interpretar imagens compartilhadas no Slack (em grande parte superado pelo GPT-4o)
  • o1 Mini / o1 Preview / o3 — modelos de raciocínio para tarefas analíticas difíceis (mais lentos e caros; use com parcimônia)
  • GPT-5 — fronteira, disponível onde aplicável

Para a maioria das equipes, comece com o GPT-4o Mini. Promova para GPT-4o ou o1 apenas em fluxos onde os usuários reclamam da qualidade da resposta.

Google Gemini

O Google Gemini é a escolha mais forte quando a janela de contexto importa — o Gemini 1.5 Pro lida com mais de 1M tokens, suficiente para colocar bases de código inteiras ou conjuntos de documentos em uma única consulta no Slack. Arraste o componente LLM Google no passo 4 e escolha a variante:

  • Gemini 1.5 Flash / Flash 8B — rápido e barato; bom para canais de Slack de alto volume
  • Gemini 2.0 Flash / 2.5 Flash — gerações mais recentes do Flash, mais rápidas e inteligentes que a 1.5
  • Gemini 1.5 Pro / 2.5 Pro — top de linha com contexto enorme; melhor para Q&A de documento inteiro
  • Gemini 3 Flash — o modelo rápido mais recente

Se seu Slackbot precisa raciocinar sobre toda a sua base de conhecimento em uma única passagem (sem etapa de retrieval), a janela de contexto do Gemini Pro é a resposta mais limpa.

xAI Grok

O xAI Grok é integrado ao fluxo do Slack do FlowHunt da mesma forma que os outros modelos — arraste o componente LLM xAI (ou use o componente LLM OpenAI apontando para o endpoint do Grok, dependendo da sua versão do FlowHunt) e escolha a variante do Grok. A característica distintiva do Grok é a consciência em tempo real — ele tem acesso a informações ao vivo, incluindo dados do X (Twitter), tornando-se a melhor escolha quando o Slackbot precisa de contexto de eventos atuais: notícias, dados de mercado, desenvolvimentos de última hora. Combine-o com a Google Search Tool para um acesso ainda mais amplo à web.

Meta Llama

A família Llama da Meta é a opção de pesos abertos — use quando residência de dados, auto-hospedagem ou custo por token descartam APIs hospedadas. Arraste o componente LLM Meta no passo 4 e escolha a variante:

  • Llama 3.2 1B / 3B — pequenos, rápidos, executáveis em hardware modesto
  • Llama 3.3 Versatile — o atual carro-chefe, competitivo com GPT-4o em muitas tarefas
  • Llama 4 (onde disponível) — geração mais nova

Llama é a resposta certa quando sua equipe de segurança ou conformidade exige que o modelo rode em infraestrutura controlada por você, ou quando o alto volume de mensagens torna os custos de API hospedada proibitivos.

Mistral

Mistral é o concorrente europeu de pesos abertos — modelos fortes, hospedagem amigável à UE e boa relação preço-desempenho. Arraste o componente LLM Mistral no passo 4 e escolha a variante:

  • Mistral 7B — pequeno e rápido, roda em hardware comum
  • Mistral 8x7B (Mixtral) — mistura de especialistas, desempenho geral forte
  • Mistral Large — carro-chefe, compete com GPT-4o em qualidade a preço menor

Escolha Mistral quando a residência de dados na UE for relevante, ou quando você quiser flexibilidade de pesos abertos com qualidade mais próxima da fronteira do que Llama 3.x em alguns benchmarks.

Padrões comuns de Slackbot

Três padrões de fluxo cobrem a maioria das implantações no Slack. Construa qualquer um deles em cima da configuração acima ajustando as ferramentas e o prompt do AI Agent:

  • Assistente de base de conhecimento — adicione um Document Retriever apontando para Notion / Confluence / Google Drive / seus uploads de arquivos. O bot responde perguntas citando fontes internas.
  • Assistente de pesquisa web — adicione a Google Search Tool e o URL Retriever. O bot puxa contexto web ao vivo e resume URLs que a equipe compartilha.
  • Agente de fluxo de trabalho — adicione ferramentas de API personalizadas que acessem seus serviços internos. O bot dispara tarefas, consulta dashboards, publica atualizações de status sob demanda.

Esses padrões se sobrepõem de forma limpa: um único fluxo do Slack pode combinar retrieval de base de conhecimento, busca web ao vivo e chamadas de API internas, com o LLM escolhendo a ferramenta certa para cada consulta.

Solução de problemas

O bot não responde a mensagens. Verifique se “Only Trigger on Mention” está condizente com sua forma de testar — se ativada, você precisa mencionar o bot com @. Confirme se o canal em Slack Message Received corresponde ao canal onde você está postando.

O bot responde, mas a resposta é ruim. Itere primeiro no backstory e no goal do AI Agent — eles têm mais impacto do que trocar de modelo. Se a qualidade ainda estiver ruim depois da iteração no prompt, promova para um modelo mais forte no componente LLM (Mini → padrão → top de linha).

Erros de permissão após a autenticação no Slack. Reconecte a integração do Slack na aba Integrations do FlowHunt e conceda novamente as permissões. O Slack ocasionalmente invalida tokens após mudanças de proprietário do workspace.

Respostas longas são truncadas no Slack. O Slack tem um limite de caracteres por mensagem. Adicione uma etapa de pós-processamento no fluxo para dividir respostas longas, ou instrua o AI Agent no goal a manter as respostas abaixo de 3.000 caracteres ao postar no Slack.

Coloque seu Slackbot com IA no ar

Toda a configuração — conectar o Slack, construir o fluxo, escolher um modelo — é um projeto de uma noite no FlowHunt. O fluxo que você constrói hoje funciona com qualquer modelo futuro: quando o GPT-6 ou o Claude 5 forem lançados, você troca o componente LLM e o resto do fluxo continua rodando.

Comece com o plano gratuito do FlowHunt , conecte o Slack e coloque um Slackbot com IA funcionando antes do almoço.

Perguntas frequentes

Arshia é Engenheira de Fluxos de Trabalho de IA na FlowHunt. Com formação em ciência da computação e paixão por IA, ela se especializa em criar fluxos de trabalho eficientes que integram ferramentas de IA em tarefas do dia a dia, aumentando a produtividade e a criatividade.

Arshia Kahani
Arshia Kahani
Engenheira de Fluxos de Trabalho de IA

Coloque seu Slackbot com IA no ar em minutos

O construtor de fluxos no-code do FlowHunt conecta o Slack a todos os principais LLMs — Claude, GPT, Gemini, Grok, Llama, Mistral — por meio de um único fluxo consistente. Sem código, sem infraestrutura para gerenciar.

Saiba mais

Integração com o Slack
Integração com o Slack

Integração com o Slack

A integração do FlowHunt com o Slack permite colaboração com IA de forma fluida diretamente no seu workspace do Slack. Traga qualquer Flow para o Slack, automat...

8 min de leitura
Slack Integration +3
Servidor MCP Hospedado para Slack
Servidor MCP Hospedado para Slack

Servidor MCP Hospedado para Slack

O Servidor MCP do Slack permite uma integração perfeita entre ferramentas de IA e o Slack, possibilitando fluxos de trabalho automatizados para enviar, organiza...

4 min de leitura
AI Slack +5