LLM Mistral
LLM Mistral su FlowHunt consente un’integrazione flessibile di avanzati modelli AI Mistral per una generazione di testo fluida in chatbot e strumenti AI.

Descrizione del componente
Come funziona il componente LLM Mistral
Cos’è il componente LLM Mistral?
Il componente LLM Mistral collega i modelli Mistral al tuo flow. Mentre i Generator e gli Agent sono dove avviene la vera magia, i componenti LLM ti permettono di controllare il modello utilizzato. Tutti i componenti includono di default ChatGPT-4. Puoi collegare questo componente se desideri cambiare modello oppure avere maggiore controllo su di esso.

Ricorda che collegare un componente LLM è opzionale. Tutti i componenti che usano un LLM includono ChatGPT-4o come impostazione predefinita. I componenti LLM ti permettono di cambiare modello e di controllare le impostazioni del modello.
Impostazioni del componente LLM Mistral
Max Tokens
I token rappresentano le singole unità di testo che il modello elabora e genera. L’utilizzo dei token varia a seconda dei modelli, e un singolo token può essere una parola, una sottoparola o anche un singolo carattere. I modelli di solito sono tariffati a milioni di token.
L’impostazione max tokens limita il numero totale di token che possono essere processati in una singola interazione o richiesta, assicurando che le risposte siano generate entro limiti ragionevoli. Il limite di default è 4.000 token, una dimensione ottimale per riassumere documenti e più fonti per generare una risposta.
Temperature
La temperature controlla la variabilità delle risposte, con valori da 0 a 1.
Una temperature di 0.1 renderà le risposte molto dirette ma potenzialmente ripetitive e poco ricche.
Una temperature elevata di 1 consente la massima creatività nelle risposte, ma comporta il rischio di risposte irrilevanti o addirittura allucinatorie.
Ad esempio, la temperature consigliata per un bot di assistenza clienti è tra 0.2 e 0.5. Questo livello mantiene le risposte pertinenti e in linea con lo script, permettendo al contempo una variazione naturale.
Modello
Questa è la selezione del modello. Qui troverai tutti i modelli supportati da Mistral. Attualmente supportiamo i seguenti modelli:
- Mistral 7B – Un modello linguistico da 7,3 miliardi di parametri che utilizza l’architettura transformers, rilasciato sotto licenza Apache 2.0. Pur essendo un progetto più piccolo, supera regolarmente il modello Llama 2 di Meta. Scopri i risultati dei nostri test.
- Mistral 8x7B (Mixtral) – Questo modello utilizza un’architettura sparse mixture of experts, composta da otto distinti gruppi di “esperti”, per un totale di 46,7 miliardi di parametri. Ogni token utilizza fino a 12,9 miliardi di parametri, offrendo prestazioni pari o superiori a LLaMA 2 70B e GPT-3.5 nella maggior parte dei benchmark. Vedi esempi di output.
- Mistral Large – Un modello linguistico ad alte prestazioni con 123 miliardi di parametri e una lunghezza di contesto di 128.000 token. È fluente in più lingue, incluse quelle di programmazione, e dimostra prestazioni competitive con modelli come LLaMA 3.1 405B, in particolare nei task legati alla programmazione. Scopri di più qui.
Come aggiungere LLM Mistral al tuo flow
Noterai che tutti i componenti LLM hanno solo un output handle. L’input non passa attraverso il componente, in quanto rappresenta solo il modello, mentre la generazione avviene negli AI Agent e Generator.
L’handle LLM è sempre viola. L’handle di input LLM si trova su qualsiasi componente che utilizza l’AI per generare testo o elaborare dati. Puoi vedere le opzioni facendo clic sull’handle:

Questo ti permette di creare ogni tipo di strumento. Vediamo il componente in azione. Ecco un semplice flow chatbot AI Agent che utilizza il modello Mistral 7B per generare risposte. Puoi considerarlo come un chatbot Mistral di base.
Questo semplice Chatbot Flow include:
- Chat input: rappresenta il messaggio inviato dall’utente in chat.
- Chat history: assicura che il chatbot possa ricordare e tener conto delle risposte precedenti.
- Chat output: rappresenta la risposta finale del chatbot.
- AI Agent: un agente AI autonomo che genera risposte.
- LLM Mistral: il collegamento ai modelli di generazione testo di Mistral.

Domande frequenti
- Cos'è il componente LLM Mistral in FlowHunt?
Il componente LLM Mistral ti permette di collegare i modelli AI di Mistral ai tuoi progetti FlowHunt, abilitando la generazione avanzata di testo per i tuoi chatbot e agenti AI. Consente di cambiare modello, controllare le impostazioni e integrare modelli come Mistral 7B, Mixtral (8x7B) e Mistral Large.
- Quali modelli Mistral sono supportati da FlowHunt?
FlowHunt supporta Mistral 7B, Mixtral (8x7B) e Mistral Large, ognuno con diversi livelli di prestazioni e parametri per varie esigenze di generazione testo.
- Quali impostazioni posso personalizzare con il componente LLM Mistral?
Puoi regolare impostazioni come max tokens e temperature, e scegliere tra i modelli Mistral supportati per controllare la lunghezza delle risposte, la creatività e il comportamento del modello nei tuoi flussi.
- È necessario collegare il componente LLM Mistral in ogni progetto?
No, collegare un componente LLM è opzionale. Di default, i componenti FlowHunt utilizzano ChatGPT-4o. Usa il componente LLM Mistral quando vuoi più controllo o utilizzare un modello Mistral specifico.
Prova oggi LLM Mistral di FlowHunt
Inizia a creare chatbot e strumenti AI più intelligenti integrando i potenti modelli linguistici di Mistral con la piattaforma no-code di FlowHunt.