Komponentenbeschreibung
So funktioniert die LLM Mistral-Komponente
Was ist die LLM Mistral-Komponente?
Die LLM Mistral-Komponente verbindet die Mistral-Modelle mit Ihrem Flow. Während die Generatoren und Agenten dort agieren, wo die eigentliche Magie passiert, ermöglichen LLM-Komponenten die Kontrolle über das verwendete Modell. Alle Komponenten sind standardmäßig mit ChatGPT-4 ausgestattet. Sie können diese Komponente verbinden, wenn Sie das Modell wechseln oder mehr Kontrolle darüber haben möchten.

Denken Sie daran, dass das Verbinden einer LLM-Komponente optional ist. Alle Komponenten, die ein LLM verwenden, sind standardmäßig mit ChatGPT-4o ausgestattet. Die LLM-Komponenten erlauben Ihnen, das Modell zu wechseln und die Modelleinstellungen zu steuern.
LLM Mistral-Komponenten-Einstellungen
Maximale Token-Anzahl
Token repräsentieren die einzelnen Einheiten von Text, die das Modell verarbeitet und generiert. Der Token-Verbrauch variiert je nach Modell, und ein einzelnes Token kann von einem Wort oder Teilwort bis zu einem einzelnen Zeichen reichen. Modelle werden üblicherweise pro Million Token abgerechnet.
Die Einstellung für maximale Token begrenzt die Gesamtanzahl der Token, die in einer einzelnen Interaktion oder Anfrage verarbeitet werden können. So wird sichergestellt, dass die Antworten in einem vernünftigen Rahmen erzeugt werden. Das Standardlimit beträgt 4.000 Token, was die optimale Größe zum Zusammenfassen von Dokumenten und mehreren Quellen zur Generierung einer Antwort ist.
Temperatur
Die Temperatur steuert die Variabilität der Antworten und reicht von 0 bis 1.
Eine Temperatur von 0,1 sorgt für sehr präzise, aber potenziell repetitive und wenig abwechslungsreiche Antworten.
Eine hohe Temperatur von 1 erlaubt maximale Kreativität bei den Antworten, birgt jedoch das Risiko von irrelevanten oder gar halluzinierten Inhalten.
Für einen Kundenservice-Bot wird beispielsweise eine Temperatur zwischen 0,2 und 0,5 empfohlen. Dieser Bereich sorgt dafür, dass die Antworten relevant und am Skript orientiert bleiben, gleichzeitig aber eine natürliche Varianz erlauben.
Modell
Dies ist der Modell-Auswahlschalter. Hier finden Sie alle unterstützten Modelle von Mistral. Derzeit unterstützen wir folgende Modelle:
- Mistral 7B – Ein Sprachmodell mit 7,3 Milliarden Parametern, das auf der Transformers-Architektur basiert und unter der Apache 2.0-Lizenz veröffentlicht wurde. Trotz des kleineren Projekts übertrifft es regelmäßig Metas Llama 2 Modell. Schauen Sie sich an, wie gut es in unseren Tests abgeschnitten hat.
- Mistral 8x7B (Mixtral) – Dieses Modell verwendet eine Sparse Mixture of Experts-Architektur, bestehend aus acht verschiedenen Gruppen von „Experten“ mit insgesamt 46,7 Milliarden Parametern. Jedes Token nutzt bis zu 12,9 Milliarden Parameter und bietet eine Leistung, die LLaMA 2 70B und GPT-3.5 in den meisten Benchmarks entspricht oder übertrifft. Siehe Output-Beispiele.
- Mistral Large – Ein leistungsstarkes Sprachmodell mit 123 Milliarden Parametern und einer Kontextlänge von 128.000 Token. Es beherrscht mehrere Sprachen, einschließlich Programmiersprachen, und zeigt eine konkurrenzfähige Leistung gegenüber Modellen wie LLaMA 3.1 405B, insbesondere bei programmierbezogenen Aufgaben. Mehr dazu hier.
Wie Sie LLM Mistral zu Ihrem Flow hinzufügen
Sie werden feststellen, dass alle LLM-Komponenten nur einen Output-Handle haben. Input fließt nicht durch die Komponente, da sie lediglich das Modell repräsentiert, während die eigentliche Generierung in KI-Agenten und Generatoren erfolgt.
Der LLM-Handle ist immer lila. Der LLM-Input-Handle befindet sich an jeder Komponente, die KI zur Textgenerierung oder Datenverarbeitung verwendet. Sie sehen die Optionen, indem Sie auf den Handle klicken:

Dies ermöglicht Ihnen, verschiedenste Tools zu erstellen. Schauen wir uns die Komponente in Aktion an. Hier ist ein einfacher KI-Agent-Chatbot-Flow, der das Mistral 7B-Modell zur Antwortgenerierung nutzt. Sie können sich das als einfachen Mistral-Chatbot vorstellen.
Dieser einfache Chatbot-Flow umfasst:
- Chat-Eingabe: Repräsentiert die Nachricht, die ein Nutzer im Chat sendet.
- Chat-Verlauf: Stellt sicher, dass der Chatbot sich an vorherige Antworten erinnert und diese berücksichtigt.
- Chat-Ausgabe: Repräsentiert die abschließende Antwort des Chatbots.
- KI-Agent: Ein autonomer KI-Agent, der Antworten generiert.
- LLM Mistral: Die Verbindung zu Mistrals Textgenerierungsmodellen.

Häufig gestellte Fragen
- Was ist die LLM Mistral-Komponente in FlowHunt?
Die LLM Mistral-Komponente ermöglicht es Ihnen, Mistral-KI-Modelle mit Ihren FlowHunt-Projekten zu verbinden, um fortschrittliche Textgenerierung für Ihre Chatbots und KI-Agenten zu ermöglichen. Sie können Modelle austauschen, Einstellungen steuern und Modelle wie Mistral 7B, Mixtral (8x7B) und Mistral Large integrieren.
- Welche Mistral-Modelle werden von FlowHunt unterstützt?
FlowHunt unterstützt Mistral 7B, Mixtral (8x7B) und Mistral Large. Jedes Modell bietet unterschiedliche Leistungen und Parameterstufen für verschiedene Anforderungen der Textgenerierung.
- Welche Einstellungen kann ich mit der LLM Mistral-Komponente anpassen?
Sie können Einstellungen wie maximale Token-Anzahl und Temperatur anpassen sowie zwischen unterstützten Mistral-Modellen wählen, um Antwortlänge, Kreativität und Modellverhalten innerhalb Ihrer Flows zu steuern.
- Muss die LLM Mistral-Komponente bei jedem Projekt verbunden werden?
Nein, das Verbinden einer LLM-Komponente ist optional. Standardmäßig verwenden FlowHunt-Komponenten ChatGPT-4o. Nutzen Sie die LLM Mistral-Komponente, wenn Sie mehr Kontrolle wünschen oder ein bestimmtes Mistral-Modell verwenden möchten.
Testen Sie FlowHunt’s LLM Mistral noch heute
Beginnen Sie damit, intelligentere KI-Chatbots und Tools zu erstellen, indem Sie Mistrals leistungsstarke Sprachmodelle mit der No-Code-Plattform von FlowHunt integrieren.