
LLM Mistral
LLM Mistral trên FlowHunt cho phép tích hợp linh hoạt các mô hình AI tiên tiến của Mistral để tạo văn bản liền mạch trong chatbot và công cụ AI.
Mô tả thành phần
Cách thành phần LLM Mistral hoạt động
Thành phần LLM Mistral là gì?
Thành phần LLM Mistral kết nối các mô hình Mistral với luồng của bạn. Trong khi Generator và Agent là nơi diễn ra quá trình tạo nội dung thực sự, các thành phần LLM cho phép bạn kiểm soát mô hình được sử dụng. Tất cả thành phần đều mặc định sử dụng ChatGPT-4. Bạn có thể kết nối thành phần này nếu muốn thay đổi mô hình hoặc kiểm soát nhiều hơn.

Lưu ý rằng việc kết nối một thành phần LLM là tùy chọn. Tất cả các thành phần sử dụng LLM đều mặc định có ChatGPT-4o. Các thành phần LLM cho phép bạn thay đổi mô hình và kiểm soát các thiết lập của mô hình.
Thiết lập thành phần LLM Mistral
Max Tokens
Token đại diện cho các đơn vị văn bản riêng lẻ mà mô hình xử lý và sinh ra. Việc sử dụng token thay đổi tùy theo mô hình và một token có thể là từ, bán từ hoặc chỉ một ký tự. Các mô hình thường được tính phí theo triệu token.
Thiết lập max tokens giới hạn tổng số token có thể được xử lý trong một lần tương tác hoặc yêu cầu, đảm bảo phản hồi được sinh ra trong phạm vi hợp lý. Giới hạn mặc định là 4.000 token, đây là kích thước tối ưu để tóm tắt tài liệu và nhiều nguồn nhằm tạo ra câu trả lời.
Temperature
Temperature kiểm soát mức độ biến đổi của câu trả lời, trong khoảng từ 0 đến 1.
Nhiệt độ 0.1 sẽ khiến phản hồi rất đi thẳng vào vấn đề nhưng có thể lặp lại và thiếu sáng tạo.
Nhiệt độ cao 1 cho phép sự sáng tạo tối đa trong câu trả lời nhưng có nguy cơ tạo ra những phản hồi không liên quan hoặc thậm chí là ảo tưởng.
Ví dụ, nhiệt độ khuyến nghị cho chatbot dịch vụ khách hàng là từ 0.2 đến 0.5. Mức này giúp câu trả lời vừa sát chủ đề vừa có độ tự nhiên.
Model
Đây là nơi chọn mô hình. Tại đây, bạn sẽ thấy tất cả các mô hình của Mistral được hỗ trợ. Hiện tại, chúng tôi hỗ trợ các mô hình sau:
- Mistral 7B – Mô hình ngôn ngữ 7,3 tỷ tham số sử dụng kiến trúc transformers, phát hành theo giấy phép Apache 2.0. Dù là dự án nhỏ hơn, nhưng mô hình này thường vượt trội hơn Llama 2 của Meta. Xem kết quả thử nghiệm của chúng tôi.
- Mistral 8x7B (Mixtral) – Mô hình này áp dụng kiến trúc mixture of experts thưa, gồm 8 nhóm “chuyên gia” riêng biệt, tổng cộng 46,7 tỷ tham số. Mỗi token sử dụng tối đa 12,9 tỷ tham số, mang lại hiệu năng tương đương hoặc vượt LLaMA 2 70B và GPT-3.5 trên hầu hết các benchmark. Xem ví dụ đầu ra.
- Mistral Large – Mô hình ngôn ngữ hiệu suất cao với 123 tỷ tham số và độ dài ngữ cảnh 128.000 token. Thành thạo nhiều ngôn ngữ, bao gồm cả ngôn ngữ lập trình, và thể hiện hiệu suất cạnh tranh với các mô hình như LLaMA 3.1 405B, đặc biệt trong các tác vụ liên quan đến lập trình. Tìm hiểu thêm tại đây.
Cách thêm LLM Mistral vào luồng của bạn
Bạn sẽ thấy rằng tất cả các thành phần LLM chỉ có tay cầm đầu ra. Dữ liệu đầu vào không đi qua thành phần này, vì nó chỉ đại diện cho mô hình, còn quá trình sinh nội dung diễn ra ở AI Agents và Generators.
Tay cầm LLM luôn có màu tím. Tay cầm đầu vào LLM được tìm thấy trên bất kỳ thành phần nào sử dụng AI để sinh văn bản hoặc xử lý dữ liệu. Bạn có thể xem các tùy chọn bằng cách nhấp vào tay cầm:

Điều này cho phép bạn tạo ra nhiều loại công cụ khác nhau. Hãy xem thành phần này hoạt động như thế nào. Dưới đây là luồng Chatbot AI Agent đơn giản sử dụng mô hình Mistral 7B để sinh phản hồi. Bạn có thể xem nó như một chatbot Mistral cơ bản.
Luồng Chatbot đơn giản này bao gồm:
- Chat input: Đại diện cho tin nhắn người dùng gửi trong chat.
- Chat history: Đảm bảo chatbot có thể nhớ và xét đến các phản hồi trước đó.
- Chat output: Đại diện cho phản hồi cuối cùng của chatbot.
- AI Agent: AI agent tự động sinh phản hồi.
- LLM Mistral: Kết nối với các mô hình tạo văn bản của Mistral.

Câu hỏi thường gặp
- Thành phần LLM Mistral trong FlowHunt là gì?
Thành phần LLM Mistral cho phép bạn kết nối các mô hình AI của Mistral vào các dự án FlowHunt, từ đó tạo ra khả năng sinh văn bản nâng cao cho chatbot và AI agent của bạn. Bạn có thể thay đổi mô hình, kiểm soát các thiết lập, và tích hợp các mô hình như Mistral 7B, Mixtral (8x7B), và Mistral Large.
- Những mô hình Mistral nào được FlowHunt hỗ trợ?
FlowHunt hỗ trợ Mistral 7B, Mixtral (8x7B) và Mistral Large, mỗi loại mang lại hiệu suất và mức tham số khác nhau cho nhu cầu tạo văn bản đa dạng.
- Tôi có thể tùy chỉnh những thiết lập nào với thành phần LLM Mistral?
Bạn có thể điều chỉnh các thiết lập như số lượng token tối đa, nhiệt độ và lựa chọn giữa các mô hình Mistral được hỗ trợ để kiểm soát độ dài phản hồi, mức độ sáng tạo và hành vi của mô hình trong luồng của bạn.
- Có bắt buộc phải kết nối thành phần LLM Mistral cho mỗi dự án không?
Không, việc kết nối một thành phần LLM là tùy chọn. Theo mặc định, các thành phần FlowHunt sử dụng ChatGPT-4o. Hãy dùng thành phần LLM Mistral khi bạn muốn kiểm soát nhiều hơn hoặc sử dụng một mô hình Mistral cụ thể.
Trải nghiệm LLM Mistral của FlowHunt ngay hôm nay
Bắt đầu xây dựng các chatbot AI thông minh và công cụ bằng cách tích hợp các mô hình ngôn ngữ mạnh mẽ của Mistral với nền tảng không mã của FlowHunt.