Komponentenbeschreibung
So funktioniert die LLM DeepSeek-Komponente
Was ist die LLM DeepSeek-Komponente?
Die LLM DeepSeek-Komponente verbindet die DeepSeek-Modelle mit Ihrem Flow. Während die Generatoren und Agenten die eigentliche Magie bewirken, ermöglichen LLM-Komponenten den Wechsel und die Steuerung des verwendeten Modells.

Denken Sie daran, dass das Verbinden einer LLM-Komponente optional ist. Alle Komponenten, die ein LLM verwenden, kommen mit ChatGPT-4o als Standard. Die LLM-Komponenten ermöglichen es, das Modell zu ändern und die Modelleinstellungen zu steuern.
LLM Gemini-Komponenten-Einstellungen
Maximale Tokens
Tokens sind die einzelnen Einheiten von Text, die das Modell verarbeitet und generiert. Der Token-Verbrauch variiert je nach Modell, und ein Token kann alles sein – von Wörtern oder Teilwörtern bis hin zu einem einzelnen Zeichen. Die Modelle werden üblicherweise in Millionen von Tokens abgerechnet.
Die Einstellung für maximale Tokens begrenzt die Gesamtzahl der Tokens, die in einer einzelnen Interaktion oder Anfrage verarbeitet werden können, und stellt sicher, dass die Antworten in einem vernünftigen Rahmen bleiben. Das Standardlimit beträgt 4.000 Tokens – die optimale Größe, um Dokumente zusammenzufassen und mehrere Quellen für eine Antwort zu verwenden.
Temperatur
Die Temperatur steuert die Variabilität der Antworten und reicht von 0 bis 1.
Eine Temperatur von 0,1 macht die Antworten sehr präzise, aber möglicherweise wiederholend und wenig abwechslungsreich.
Eine hohe Temperatur von 1 erlaubt maximale Kreativität in den Antworten, birgt aber das Risiko von irrelevanten oder sogar halluzinatorischen Antworten.
Empfohlen für einen Kundenservice-Bot ist eine Temperatur von zwischen 0,2 und 0,5. Dieses Level sorgt für relevante und skriptnahe Antworten, lässt aber eine natürliche Variation zu.
Modell
Dies ist der Modellauswähler. Hier finden Sie alle unterstützten DeepSeek-Modelle. Wir unterstützen alle aktuellen Gemini-Modelle:
- DeepSeek R1: Das chinesische, leichtgewichtige Open-Source-Modell, das Anfang 2025 die Welt im Sturm eroberte. Es ist derzeit das schnellste und beste DeepSeek-Modell und übertrifft das o1-Modell von OpenAI mühelos.
Wie füge ich LLM DeepSeek zu meinem Flow hinzu?
Sie werden feststellen, dass alle LLM-Komponenten nur einen Output-Handle besitzen. Der Input durchläuft die Komponente nicht, da sie lediglich das Modell repräsentiert, während die eigentliche Generierung in KI-Agenten und Generatoren erfolgt.
Der LLM-Handle ist immer lila. Den LLM-Input-Handle finden Sie an jeder Komponente, die KI zur Textgenerierung oder Datenverarbeitung nutzt. Die Optionen sehen Sie, indem Sie auf den Handle klicken:

Damit können Sie alle möglichen Tools erstellen. Sehen wir uns die Komponente in Aktion an. Hier ist ein einfacher KI-Agent-Chatbot-Flow, der DeepSeek R1 zur Generierung von Antworten verwendet. Sie können ihn sich als einfachen DeepSeek-Chatbot vorstellen.
Dieser einfache Chatbot-Flow beinhaltet:
- Chat-Eingabe: Stellt die Nachricht dar, die ein Nutzer im Chat sendet.
- Chat-Verlauf: Stellt sicher, dass der Chatbot frühere Antworten berücksichtigen kann.
- Chat-Ausgabe: Stellt die finale Antwort des Chatbots dar.
- KI-Agent: Ein autonomer KI-Agent, der Antworten generiert.
- LLM DeepSeek: Die Verbindung zu den DeepSeek-Generierungsmodellen.

Häufig gestellte Fragen
- Was ist LLM DeepSeek in FlowHunt?
LLM DeepSeek ist eine Komponente in FlowHunt, die Ihnen ermöglicht, DeepSeek KI-Modelle für Text- und Bildgenerierung zu verbinden und zu steuern, was leistungsstarke Chatbots und automatisierte Flows ermöglicht.
- Welche DeepSeek-Modelle werden unterstützt?
FlowHunt unterstützt alle aktuellen DeepSeek-Modelle, einschließlich DeepSeek R1, das besonders für seine Geschwindigkeit und Leistung im Vergleich zu anderen führenden KI-Modellen bekannt ist.
- Wie kann ich die LLM DeepSeek-Einstellungen anpassen?
Sie können die maximale Token-Anzahl für die Antwortlänge und die Temperatur für die Antwort-Kreativität einstellen sowie direkt im FlowHunt-Dashboard zwischen verfügbaren DeepSeek-Modellen wechseln.
- Ist das Verbinden einer LLM DeepSeek-Komponente erforderlich?
Nein, das Verbinden einer LLM-Komponente ist optional. Standardmäßig verwendet FlowHunt ChatGPT-4o, aber durch das Hinzufügen von LLM DeepSeek können Sie auswählen und steuern, welches KI-Modell Ihre Flows antreibt.
Testen Sie FlowHunt mit DeepSeek
Beginnen Sie mit dem Aufbau intelligenterer KI-Chatbots und Automatisierungs-Tools unter Verwendung fortschrittlicher DeepSeek-Modelle – ganz ohne komplexe Einrichtung oder mehrere Abonnements.