Komponentenbeschreibung
So funktioniert die LLM Gemini-Komponente
Was ist die LLM Gemini-Komponente?
Die LLM Gemini-Komponente verbindet die Gemini-Modelle von Google mit Ihrem Flow. Während die Generatoren und Agenten den eigentlichen Zauber ausführen, ermöglicht Ihnen die LLM-Komponente die Kontrolle über das verwendete Modell. Alle Komponenten enthalten standardmäßig ChatGPT-4. Sie können diese Komponente verbinden, wenn Sie das Modell wechseln oder mehr Kontrolle darüber haben möchten.

Denken Sie daran, dass das Verbinden einer LLM-Komponente optional ist. Alle Komponenten, die ein LLM verwenden, verfügen standardmäßig über ChatGPT-4o. Mit den LLM-Komponenten können Sie das Modell wechseln und die Modelleinstellungen steuern.
Einstellungen der LLM Gemini-Komponente
Max Tokens
Tokens stellen die einzelnen Texteinheiten dar, die das Modell verarbeitet und generiert. Der Tokenverbrauch variiert je nach Modell, und ein einzelner Token kann ein Wort, ein Teil eines Wortes oder sogar ein einzelnes Zeichen sein. Modelle werden üblicherweise pro Million Tokens abgerechnet.
Die Max Tokens-Einstellung begrenzt die Gesamtzahl der Tokens, die in einer einzigen Interaktion oder Anfrage verarbeitet werden können, um sicherzustellen, dass Antworten in einem angemessenen Rahmen generiert werden. Das Standardlimit beträgt 4.000 Tokens – optimal für das Zusammenfassen von Dokumenten und mehreren Quellen zur Generierung einer Antwort.
Temperatur
Die Temperatur steuert die Variabilität der Antworten und reicht von 0 bis 1.
Eine Temperatur von 0,1 sorgt dafür, dass die Antworten sehr präzise, aber möglicherweise auch wiederholend und mangelhaft sind.
Eine hohe Temperatur von 1 ermöglicht maximale Kreativität in den Antworten, birgt jedoch das Risiko von irrelevanten oder sogar halluzinierten Inhalten.
Zum Beispiel wird für einen Kundenservice-Bot eine Temperatur von zwischen 0,2 und 0,5 empfohlen. Dieser Bereich hält die Antworten relevant und skriptgetreu, erlaubt aber natürliche Variationen.
Modell
Dies ist der Modell-Auswahlschalter. Hier finden Sie alle unterstützten Gemini-Modelle von Google. Wir unterstützen alle aktuellen Gemini-Modelle:
- Gemini 2.0 Flash Experimental – Ein fortschrittliches, latenzarmes Modell, das für Agenten entwickelt wurde. Es bietet neue Funktionen wie native Tool-Nutzung, Bildgenerierung und Sprachausgabe. Sehen Sie, wie gut das fortschrittlichste Google-Modell Routineaufgaben in unseren Tests bewältigt hat.
- Gemini 1.5 Flash – Ein leichtgewichtiges, multimodales Modell, das auf Geschwindigkeit und Effizienz optimiert ist und Audio-, Bild-, Video- und Texteingaben mit einem Kontextfenster von bis zu 1.048.576 Tokens verarbeiten kann. Mehr erfahren Sie hier.
- Gemini 1.5 Flash-8B – Eine kleinere, schnellere und kostengünstigere Variante des 1.5 Flash-Modells mit ähnlichen multimodalen Fähigkeiten, 50 % niedrigerem Preis und 2-fach höheren Ratenlimits als 1.5 Flash. Wie gut ist die Ausgabe des schwächsten Modells? Finden Sie es hier heraus.
- Gemini 1.5 Pro – Ein mittelgroßes, multimodales Modell, optimiert für eine breite Palette von Aufgaben mit komplexem Denkvermögen, das große Datenmengen einschließlich längerer Audio- und Videoeingaben verarbeiten kann, mit einem Input-Token-Limit von 2.097.152. Siehe Ausgabe-Beispiele.
So fügen Sie LLM Gemini Ihrem Flow hinzu
Sie werden feststellen, dass alle LLM-Komponenten nur einen Output-Handle haben. Eingaben durchlaufen die Komponente nicht, da sie lediglich das Modell repräsentiert – die eigentliche Generierung findet in den KI-Agenten und Generatoren statt.
Der LLM-Handle ist immer lila. Den LLM-Eingabehandle finden Sie an jeder Komponente, die KI zur Texterstellung oder Datenverarbeitung nutzt. Klicken Sie auf den Handle, um die Optionen zu sehen:

Damit lassen sich verschiedenste Tools erstellen. Sehen wir uns die Komponente in Aktion an: Hier ist ein einfacher KI-Agent-Chatbot-Flow, der Gemini 2.0 Flash Experimental verwendet, um Antworten zu generieren. Sie können es sich als einen grundlegenden Gemini-Chatbot vorstellen.
Dieser einfache Chatbot-Flow umfasst:
- Chat-Eingabe: Stellt die Nachricht dar, die ein Benutzer im Chat sendet.
- Chat-Historie: Stellt sicher, dass der Chatbot frühere Antworten berücksichtigen und sich merken kann.
- Chat-Ausgabe: Stellt die endgültige Antwort des Chatbots dar.
- KI-Agent: Ein autonomer KI-Agent, der Antworten generiert.
- LLM Gemini: Die Verbindung zu den Textgenerierungsmodellen von Google.

Beispiele für Flow-Vorlagen mit der LLM Gemini-Komponente
Um Ihnen den schnellen Einstieg zu erleichtern, haben wir mehrere Beispiel-Flow-Vorlagen vorbereitet, die zeigen, wie die LLM Gemini-Komponente effektiv genutzt wird. Diese Vorlagen präsentieren verschiedene Anwendungsfälle und Best Practices und erleichtern Ihnen das Verständnis und die Implementierung der Komponente in Ihren eigenen Projekten.
Häufig gestellte Fragen
- Was ist die LLM Gemini-Komponente in FlowHunt?
LLM Gemini verbindet die Gemini-Modelle von Google mit Ihren FlowHunt-KI-Flows und ermöglicht es Ihnen, aus den neuesten Gemini-Varianten für die Textgenerierung zu wählen und deren Verhalten anzupassen.
- Welche Gemini-Modelle werden unterstützt?
FlowHunt unterstützt Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B und Gemini 1.5 Pro – jedes bietet einzigartige Funktionen für Text-, Bild-, Audio- und Videoeingaben.
- Wie beeinflussen Max Tokens und Temperatur die Antworten?
Max Tokens begrenzen die Antwortlänge, während die Temperatur die Kreativität steuert – niedrigere Werte liefern fokussierte Antworten, höhere Werte erlauben mehr Vielfalt. Beides kann pro Modell in FlowHunt eingestellt werden.
- Ist die Verwendung der LLM Gemini-Komponente verpflichtend?
Nein, die Verwendung von LLM-Komponenten ist optional. Alle KI-Flows verfügen standardmäßig über ChatGPT-4o, aber mit LLM Gemini können Sie auf Google-Modelle umschalten und deren Einstellungen feinjustieren.
Testen Sie Google Gemini mit FlowHunt
Beginnen Sie mit dem Aufbau fortschrittlicher KI-Chatbots und Tools mit Gemini und anderen Top-Modellen – alles in einem Dashboard. Wechseln Sie Modelle, passen Sie Einstellungen an und optimieren Sie Ihre Workflows.