Kết nối AI với Slack: Thêm Claude, GPT, Gemini, Grok, Llama & Mistral với FlowHunt

Slack Slackbot AI Agents LLM

Kết nối bất kỳ mô hình AI nào với Slack — một flow, mọi LLM

Trước đây, để thêm trợ lý AI vào Slack thường phải chọn một nhà cung cấp, viết code tích hợp, rồi xây lại tất cả khi sáu tháng sau có một mô hình tốt hơn ra mắt. Với FlowHunt, phần tích hợp được tách rời khỏi mô hình: bạn chỉ xây flow Slack một lần, cắm LLM bạn muốn — Claude, GPT, Gemini, Grok, Llama, Mistral — và đổi bất cứ lúc nào mà không cần đụng vào phần còn lại.

Hướng dẫn này đi qua toàn bộ quá trình thiết lập. Nửa đầu giống nhau cho mọi mô hình. Nửa sau phân tích nên chọn mô hình nào cho từng trường hợp sử dụng, kèm các lưu ý riêng cho từng dòng LLM. Hãy nhảy đến phần phù hợp với stack của bạn, hoặc đọc từ đầu đến cuối nếu mới bắt đầu từ con số không.

Vì sao nên đặt một AI Agent trong Slack

Slack là nơi các nhóm đặt câu hỏi. Một AI Agent sống ở đó sẽ trả lời ngay lập tức — không cần chuyển ngữ cảnh sang công cụ chat khác, dashboard hay knowledge base. Các kịch bản triển khai phổ biến:

  • Hỏi đáp nội bộ: agent trả lời các câu hỏi về HR, IT hoặc sản phẩm dựa trên kho tri thức của công ty
  • Phân loại hỗ trợ khách hàng: định tuyến ticket, soạn câu trả lời nháp, leo thang các tình huống biên
  • Trợ lý nghiên cứu: tóm tắt URL được chia sẻ, chạy tìm kiếm web, lấy dữ liệu theo yêu cầu
  • Tự động hóa quy trình: kích hoạt các job đã lên lịch, truy vấn cơ sở dữ liệu, đăng cập nhật trạng thái
  • Trợ lý onboarding: hướng dẫn nhân sự mới qua các quy trình, đưa lên các tài liệu liên quan

Bot nằm ngay trong Slack, vì vậy việc tiếp nhận diễn ra tự nhiên — không ai phải học một công cụ mới.

Logo

Sẵn sàng phát triển doanh nghiệp của bạn?

Bắt đầu dùng thử miễn phí ngay hôm nay và xem kết quả trong vài ngày.

Thiết lập Slack từng bước với FlowHunt

Cách thiết lập giống nhau bất kể bạn chọn mô hình AI nào. Chọn mô hình ở bước 4; mọi thứ khác giữ nguyên.

1. Kết nối Slack với FlowHunt

Đăng nhập vào tài khoản FlowHunt của bạn và mở tab Integrations. Chọn Slack, nhấn Connect, và cấp quyền cho ứng dụng trên màn hình OAuth của Slack. Cấp các quyền đọc/ghi mà FlowHunt yêu cầu — chúng cho phép bot nhận tin nhắn và gửi trả lời trong workspace của bạn.

Chọn Slack từ các tích hợp của FlowHunt

URL workspace của bạn xuất hiện ở góc trên bên trái của Slack desktop hoặc web app — sao chép từ đó nếu FlowHunt yêu cầu. Sau khi cấp quyền, Slack đã được kết nối và sẵn sàng dùng trong mọi flow.

2. Tạo flow mới và thêm block Slack Message Received

Trong trình tạo flow của FlowHunt, kéo component Slack Message Received lên canvas. Block này lắng nghe các tin nhắn Slack đến và kích hoạt phần còn lại của flow.

Cấu hình hai cài đặt:

  • Kênh và workspace: chọn workspace bạn đã kết nối, và toàn bộ workspace hoặc một kênh cụ thể. Một kênh #ai-assistant riêng là cấu hình gọn gàng nhất.
  • Only Trigger on Mention: bật để bot chỉ kích hoạt khi có người @ nó. Nếu không, mọi tin nhắn trong kênh đều sẽ kích hoạt flow.
Cấu hình component Slack Message Received

3. Thêm component AI Agent

Block AI Agent là tầng suy luận của bot. Nó nhận tin nhắn của người dùng, quyết định dùng công cụ nào và soạn ra câu trả lời.

  • Backstory: mô tả ngắn về persona và phạm vi của bot, ví dụ: “Bạn là một trợ lý Slack hữu ích cho đội kỹ thuật.”
  • Goal: mục tiêu chính của bot, ví dụ: “Trả lời câu hỏi chính xác bằng cách sử dụng mọi công cụ và nguồn tri thức sẵn có. Trích nguồn khi liên quan.”
Cấu hình component AI Agent

4. Thêm component LLM và chọn mô hình

Kết nối một component LLM vào AI Agent. Đây là nơi bạn chọn mô hình AI cấp năng lượng cho bot. FlowHunt có component LLM riêng cho từng nhà cung cấp — LLM OpenAI, LLM Anthropic, LLM Google, LLM Meta, LLM Mistral, LLM xAI — và bên trong mỗi component bạn chọn biến thể mô hình cụ thể.

Đây là bước duy nhất khác nhau giữa các mô hình. Hãy nhảy đến mục Chọn mô hình AI phù hợp bên dưới để xem so sánh và lưu ý theo từng dòng.

Chọn component LLM trong FlowHunt

5. Thêm công cụ (tùy chọn nhưng nên dùng)

AI Agent trở nên hữu ích hơn rất nhiều khi có thể dùng công cụ. Một số phổ biến:

  • Google Search Tooltìm kiếm web trực tiếp cho thông tin thời gian thực
  • URL Retriever — lấy và tóm tắt mọi URL được chia sẻ trong Slack
  • Document Retriever — RAG trên kho tri thức của riêng bạn (Notion, Confluence, Google Drive, file tải lên)
  • Công cụ API tùy chỉnh — gọi mọi dịch vụ nội bộ chấp nhận HTTP

Công cụ không phụ thuộc mô hình. Bất kỳ LLM nào bạn chọn ở bước 4 đều có thể sử dụng bất kỳ công cụ nào bạn nối vào.

Thêm công cụ vào AI Agent

6. Thêm block Slack Send Message và kiểm thử

Hoàn thiện flow bằng component Slack Send Message, cấu hình cho cùng kênh và workspace như bước 2. Lưu flow, mở Slack và @ bot trong kênh thử nghiệm. Bot sẽ phản hồi bằng mô hình bạn đã chọn ở bước 4.

Component Slack Send Message

Đó là toàn bộ quá trình thiết lập. Đổi mô hình về sau chỉ là thay đổi một-cú-nhấp ở bước 4 — không sửa code, không xây lại flow.

Chọn mô hình AI phù hợp cho Slack

Mọi dòng LLM lớn đều hoạt động trong flow Slack của FlowHunt. Sự khác biệt nằm ở chi phí, độ trễ, cửa sổ ngữ cảnh, độ sâu suy luận và chất lượng gọi công cụ. Dùng bảng dưới để rút ngắn danh sách, sau đó đọc phần riêng cho từng dòng để biết lưu ý cấu hình.

Dòng mô hìnhPhù hợp choĐộ trễChi phíGhi chú
Claude (Anthropic)Phân tích ngữ cảnh dài, suy luận cẩn thận, code reviewTrung bìnhTrung bình–CaoBám sát chỉ thị tinh tế; xuất sắc cho hỏi đáp nội bộ trên tài liệu
GPT / dòng o (OpenAI)Đa năng, hệ sinh thái công cụ rộng, đa phương thứcThấp–Trung bìnhThấp (mini) – Cao (dòng o)GPT-4o Mini là điểm ngọt mặc định; o1/o3 cho suy luận khó
Gemini (Google)Cửa sổ ngữ cảnh khổng lồ, đa phương thức nhanh, có grounding tìm kiếmThấpThấp–Trung bình1.5 Pro xử lý 1M+ tokens; tuyệt vời cho hỏi đáp toàn bộ tài liệu trên Slack
Grok (xAI)Truy vấn thời gian thực/biết tin tức, dữ liệu X (Twitter), giọng văn thoải máiThấpTrung bìnhTốt nhất khi bot cần hiểu các sự kiện hiện tại
Llama (Meta)Triển khai tự host/riêng tư, workload nhạy cảm chi phíTùy hostThấp (tự host)Trọng số mở — dùng khi quan trọng về nơi lưu trữ dữ liệu
MistralTrọng số mở, cân bằng chi phí/chất lượng, hosting thân thiện EUThấpThấp–Trung bìnhMistral Large cạnh tranh với GPT-4o ở chi phí thấp hơn

Hãy chọn một để bắt đầu. Đổi mô hình trong FlowHunt chỉ là một-cú-nhấp ở component LLM, vì vậy đừng tốn quá nhiều công suy nghĩ cho lựa chọn ban đầu — triển khai với một mặc định hợp lý, đo chất lượng trên lưu lượng Slack thật, rồi cải tiến.

Lưu ý cấu hình theo từng dòng

Mỗi mục bên dưới đều độc lập. Chọn mục cho dòng mô hình bạn đang kết nối và làm theo lưu ý.

Anthropic Claude

Claude là dòng LLM của Anthropic, rất phù hợp với các Slackbot xử lý hỏi đáp nội bộ tinh tế, tóm tắt tài liệu, code review và bám sát chỉ thị cẩn thận. Để kết nối Claude với Slack, ở bước 4 hãy kéo component LLM Anthropic và chọn biến thể:

  • Claude 3 Haiku — nhanh nhất, rẻ nhất, lý tưởng cho trả lời FAQ khối lượng lớn
  • Claude 3.5 Sonnet — chủ lực: suy luận mạnh, ngữ cảnh lớn, tỉ lệ giá/hiệu năng tốt
  • Claude 4.5 Sonnet / Opus — top đầu cho các tác vụ suy luận, code và phân tích tài liệu dài khó nhất
  • Các biến thể cũ (Claude 2, Claude 3 base) vẫn hoạt động nhưng đã bị Sonnet 3.5+ thay thế

Với Slackbot tri thức nội bộ trên Notion hoặc Confluence, Claude 3.5 Sonnet kết hợp Document Retriever là điểm khởi đầu đáng tin cậy nhất.

OpenAI GPT và dòng o

Các mô hình GPT và dòng o của OpenAI là lựa chọn rộng nhất cho Slack — hiệu năng đa năng mạnh, gọi công cụ trưởng thành nhất và đầu vào đa phương thức (vision, audio). Ở bước 4 hãy kéo component LLM OpenAI và chọn biến thể:

  • GPT-4o Mini — mặc định. Nhanh, rẻ, xử lý 95% các trường hợp dùng Slack
  • GPT-4o — khi bạn cần chất lượng cao hơn, hiểu ảnh hoặc ngữ cảnh dài hơn
  • GPT-4 Vision Preview — khi bot cần hiểu ảnh được chia sẻ trong Slack (đã được GPT-4o thay thế phần lớn)
  • o1 Mini / o1 Preview / o3 — các mô hình suy luận cho tác vụ phân tích khó (chậm hơn, đắt hơn; dùng tiết chế)
  • GPT-5 — cấp tiên phong, ở nơi có sẵn

Với hầu hết các nhóm, hãy bắt đầu với GPT-4o Mini. Chỉ nâng cấp lên GPT-4o hoặc o1 ở những flow mà người dùng phàn nàn về chất lượng câu trả lời.

Google Gemini

Google Gemini là lựa chọn mạnh nhất khi cửa sổ ngữ cảnh quan trọng — Gemini 1.5 Pro xử lý hơn 1M tokens, đủ để đưa toàn bộ codebase hoặc bộ tài liệu vào một truy vấn Slack duy nhất. Ở bước 4 hãy kéo component LLM Google và chọn biến thể:

  • Gemini 1.5 Flash / Flash 8B — nhanh và rẻ; tốt cho kênh Slack có lưu lượng cao
  • Gemini 2.0 Flash / 2.5 Flash — thế hệ Flash mới hơn, nhanh hơn và thông minh hơn 1.5
  • Gemini 1.5 Pro / 2.5 Pro — top đầu với ngữ cảnh khổng lồ; tốt nhất cho hỏi đáp toàn bộ tài liệu
  • Gemini 3 Flash — mô hình nhanh mới nhất

Nếu Slackbot của bạn cần suy luận trên toàn bộ kho tri thức trong một lượt (không cần bước retrieval), cửa sổ ngữ cảnh của Gemini Pro là câu trả lời gọn gàng nhất.

xAI Grok

xAI Grok được tích hợp vào flow Slack của FlowHunt theo cùng cách như các mô hình khác — kéo component LLM xAI (hoặc dùng component LLM OpenAI trỏ vào endpoint Grok, tùy phiên bản FlowHunt của bạn) và chọn biến thể Grok. Đặc điểm nổi bật của Grok là khả năng nhận biết thời gian thực — nó truy cập được thông tin trực tiếp, bao gồm dữ liệu X (Twitter), khiến nó là lựa chọn tốt nhất khi Slackbot cần ngữ cảnh sự kiện hiện tại: tin tức, dữ liệu thị trường, các diễn biến mới. Kết hợp với Google Search Tool để có truy cập web rộng hơn.

Meta Llama

Dòng Llama của Meta là lựa chọn trọng số mở — dùng khi việc lưu trữ dữ liệu, tự host hoặc chi phí mỗi token loại trừ các API được host. Ở bước 4 hãy kéo component LLM Meta và chọn biến thể:

  • Llama 3.2 1B / 3B — nhỏ, nhanh, chạy được trên phần cứng khiêm tốn
  • Llama 3.3 Versatile — flagship hiện tại, cạnh tranh với GPT-4o ở nhiều tác vụ
  • Llama 4 (nơi có sẵn) — thế hệ mới hơn

Llama là câu trả lời đúng khi đội bảo mật hoặc tuân thủ yêu cầu mô hình phải chạy trên hạ tầng bạn kiểm soát, hoặc khi khối lượng tin nhắn lớn khiến chi phí API host trở nên không khả thi.

Mistral

Mistral là đối thủ trọng số mở của châu Âu — mô hình mạnh, hosting thân thiện EU và giá/hiệu năng tốt. Ở bước 4 hãy kéo component LLM Mistral và chọn biến thể:

  • Mistral 7B — nhỏ và nhanh, chạy trên phần cứng phổ thông
  • Mistral 8x7B (Mixtral) — mixture-of-experts, hiệu năng đa năng mạnh
  • Mistral Large — flagship, cạnh tranh với GPT-4o về chất lượng ở mức giá thấp hơn

Chọn Mistral khi việc lưu trữ dữ liệu trong EU quan trọng, hoặc khi bạn muốn sự linh hoạt của trọng số mở với chất lượng gần biên giới hơn Llama 3.x ở một số benchmark.

Các mô hình Slackbot phổ biến

Ba kiểu flow bao quát phần lớn các triển khai Slack. Xây bất kỳ kiểu nào trên nền cấu hình ở trên bằng cách điều chỉnh công cụ và prompt của AI Agent:

  • Trợ lý kho tri thức — thêm Document Retriever trỏ tới Notion / Confluence / Google Drive / file tải lên. Bot trả lời câu hỏi và trích nguồn nội bộ.
  • Trợ lý nghiên cứu web — thêm Google Search Tool và URL Retriever. Bot lấy ngữ cảnh web trực tiếp và tóm tắt các URL nhóm chia sẻ.
  • Agent quy trình — thêm các công cụ API tùy chỉnh gọi đến dịch vụ nội bộ. Bot kích hoạt job, truy vấn dashboard, đăng cập nhật trạng thái theo yêu cầu.

Các mô hình này có thể xếp chồng gọn gàng: một flow Slack duy nhất có thể kết hợp tìm kiếm trong kho tri thức, tìm kiếm web trực tiếp và gọi API nội bộ, để LLM chọn công cụ phù hợp cho mỗi truy vấn.

Khắc phục sự cố

Bot không phản hồi tin nhắn. Kiểm tra ‘Only Trigger on Mention’ có khớp với cách bạn đang thử không — nếu bật, bạn phải @ bot. Xác nhận kênh trong Slack Message Received khớp với kênh bạn đang đăng tin.

Bot phản hồi nhưng câu trả lời kém. Hãy lặp lại trên backstory và goal của AI Agent trước — chúng có ảnh hưởng lớn hơn việc đổi mô hình. Nếu chất lượng vẫn chưa đạt sau khi cải tiến prompt, hãy nâng cấp lên mô hình mạnh hơn trong component LLM (Mini → tiêu chuẩn → top đầu).

Lỗi quyền sau khi xác thực Slack. Kết nối lại tích hợp Slack trong tab Integrations của FlowHunt và cấp lại quyền. Slack đôi khi vô hiệu hóa token sau khi chủ workspace thay đổi.

Câu trả lời dài bị cắt trong Slack. Slack có giới hạn ký tự cho mỗi tin nhắn. Thêm bước hậu xử lý trong flow để chia nhỏ phản hồi dài, hoặc chỉ thị cho AI Agent trong goal giữ phản hồi dưới 3.000 ký tự khi đăng vào Slack.

Triển khai AI Slackbot của bạn

Toàn bộ quá trình thiết lập — kết nối Slack, xây flow, chọn mô hình — là dự án một buổi tối trong FlowHunt. Flow bạn xây hôm nay sẽ chạy được với mọi mô hình tương lai: khi GPT-6 hoặc Claude 5 ra mắt, bạn chỉ cần đổi component LLM và phần còn lại của flow vẫn tiếp tục chạy.

Bắt đầu với gói miễn phí của FlowHunt , kết nối Slack, và triển khai một AI Slackbot hoạt động trước bữa trưa.

Câu hỏi thường gặp

Arshia là Kỹ sư Quy trình AI tại FlowHunt. Với nền tảng về khoa học máy tính và niềm đam mê AI, anh chuyên tạo ra các quy trình hiệu quả tích hợp công cụ AI vào các nhiệm vụ hàng ngày, nâng cao năng suất và sự sáng tạo.

Arshia Kahani
Arshia Kahani
Kỹ sư Quy trình AI

Triển Khai AI Slackbot Của Bạn Trong Vài Phút

Trình tạo flow no-code của FlowHunt kết nối Slack với mọi LLM hàng đầu — Claude, GPT, Gemini, Grok, Llama, Mistral — qua một flow nhất quán. Không cần code, không cần quản lý hạ tầng.

Tìm hiểu thêm

Tích hợp Slack
Tích hợp Slack

Tích hợp Slack

Tích hợp Slack của FlowHunt cho phép cộng tác AI liền mạch ngay trong không gian làm việc Slack của bạn. Đưa bất kỳ Flow nào vào Slack, tự động hóa quy trình là...

9 phút đọc
Slack Integration +3
Slack
Slack

Slack

Tích hợp FlowHunt với Slack để tự động hóa nhắn tin, kích hoạt luồng công việc và giúp nhóm của bạn luôn được cập nhật với các luồng AI....

3 phút đọc
AI Slack +3