Mistral AI
Află mai multe despre Mistral AI și modelele LLM pe care le oferă. Descoperă cum sunt utilizate aceste modele și ce le diferențiază.

LLM Mistral pe FlowHunt permite integrarea flexibilă a modelelor AI avansate Mistral pentru generare fluentă de text în chatbot-uri și instrumente AI.
Descrierea componentei
Componenta LLM Mistral conectează modelele Mistral la fluxul tău. Deși Generatoarele și Agenții sunt locul unde are loc magia propriu-zisă, componentele LLM îți permit să controlezi modelul folosit. Toate componentele vin implicit cu ChatGPT-4. Poți conecta această componentă dacă vrei să schimbi modelul sau să ai mai mult control asupra acestuia.

Ține minte că conectarea unei componente LLM este opțională. Toate componentele care folosesc un LLM vin cu ChatGPT-4o ca implicit. Componentele LLM îți permit să schimbi modelul și să controlezi setările acestuia.
Tokenii reprezintă unități individuale de text pe care modelul le procesează și generează. Utilizarea tokenilor diferă în funcție de model, iar un token poate fi orice, de la un cuvânt sau subcuvânt la un singur caracter. Modelele sunt de obicei tarifate la milioane de tokeni.
Setarea numărului maxim de tokeni limitează totalul tokenilor ce pot fi procesați într-o singură interacțiune sau cerere, asigurând că răspunsurile sunt generate în limite rezonabile. Limita implicită este de 4.000 tokeni, optimă pentru sumarizarea documentelor și a mai multor surse pentru generarea unui răspuns.
Temperatura controlează variabilitatea răspunsurilor, variind de la 0 la 1.
O temperatură de 0.1 va face răspunsurile foarte la obiect, dar potențial repetitive și lipsite de conținut.
O temperatură ridicată de 1 permite creativitate maximă în răspunsuri, dar crește riscul de răspunsuri irelevante sau chiar halucinatorii.
De exemplu, temperatura recomandată pentru un chatbot de asistență clienți este între 0.2 și 0.5. Acest nivel menține răspunsurile relevante și la subiect, permițând totodată o variație naturală a acestora.
Aceasta este secțiunea de selecție a modelului. Aici vei găsi toate modelele Mistral suportate. În prezent, suportăm următoarele modele:
Cum adaugi LLM Mistral în fluxul tău
Vei observa că toate componentele LLM au doar un handle de ieșire. Input-ul nu trece prin componentă, deoarece aceasta reprezintă doar modelul, în timp ce generarea efectivă are loc în Agenții AI și Generatoare.
Handle-ul LLM este întotdeauna mov. Handle-ul de input LLM se găsește pe orice componentă care folosește AI pentru a genera text sau a procesa date. Poți vedea opțiunile făcând click pe handle:

Acest lucru îți permite să creezi tot felul de instrumente. Să vedem componenta în acțiune. Iată un flux simplu de chatbot AI Agent care folosește modelul Mistral 7B pentru a genera răspunsuri. Îl poți considera un chatbot Mistral de bază.
Acest flux Chatbot simplu include:

Începe să construiești chatbot-uri și instrumente AI mai inteligente, integrând modelele lingvistice puternice Mistral cu platforma no-code FlowHunt.
Află mai multe despre Mistral AI și modelele LLM pe care le oferă. Descoperă cum sunt utilizate aceste modele și ce le diferențiază.