Komponentenbeschreibung
So funktioniert die LLM Meta AI-Komponente
Was ist die LLM Meta AI-Komponente?
Die LLM Meta AI-Komponente verbindet die Claude-Modellfamilie mit Ihrem Flow. Während Generatoren und Agenten der Ort sind, an dem die eigentliche Magie passiert, ermöglichen LLM-Komponenten die Steuerung des verwendeten Modells. Alle Komponenten kommen standardmäßig mit ChatGPT-4. Sie können diese Komponente verbinden, wenn Sie das Modell wechseln oder mehr Kontrolle darüber haben möchten.

Denken Sie daran, dass das Verbinden einer LLM-Komponente optional ist. Alle Komponenten, die ein LLM verwenden, kommen mit ChatGPT-4o als Standard. Die LLM-Komponenten ermöglichen es Ihnen, das Modell zu wechseln und die Modelleinstellungen zu steuern.
LLM Meta AI-Komponenten-Einstellungen
Maximale Token
Tokens repräsentieren die einzelnen Einheiten von Text, die das Modell verarbeitet und generiert. Der Tokenverbrauch variiert je nach Modell, und ein einzelnes Token kann ein Wort, Subwort oder ein einzelnes Zeichen sein. Modelle werden üblicherweise in Millionen von Tokens abgerechnet.
Die Einstellung für maximale Token begrenzt die Gesamtanzahl der Tokens, die in einer einzelnen Interaktion oder Anfrage verarbeitet werden können, und stellt sicher, dass die Antworten in einem vernünftigen Rahmen bleiben. Das Standardlimit beträgt 4.000 Tokens – die optimale Größe, um Dokumente und mehrere Quellen zusammenzufassen und eine Antwort zu generieren.
Temperatur
Die Temperatur steuert die Variabilität der Antworten und reicht von 0 bis 1.
Eine Temperatur von 0,1 führt zu sehr präzisen, aber möglicherweise repetitiven und wenig kreativen Antworten.
Eine hohe Temperatur von 1 erlaubt maximale Kreativität in den Antworten, birgt aber das Risiko von irrelevanten oder sogar halluzinierten Antworten.
Zum Beispiel wird für einen Kundenservice-Chatbot eine Temperatur zwischen 0,2 und 0,5 empfohlen. Dieser Bereich sorgt dafür, dass die Antworten relevant und dem Skript folgend bleiben, während sie dennoch eine natürliche Variation erlauben.
Modell
Dies ist der Modell-Auswähler. Hier finden Sie alle unterstützten Modelle von Meta AI. Wir unterstützen Metas Open-Source-Leichtgewichtsmodelle Llama. Diese Modelle sind für effiziente On-Device- und Edge-Deployments konzipiert:
- Llama 3.2 1B – Das 1B-Modell enthält etwa 1,23 Milliarden Parameter mit einer Kontextlänge von bis zu 128.000 Tokens. Das Modell ist für Aufgaben wie Zusammenfassung, Befolgen von Anweisungen und Umschreiben optimiert und eignet sich für mobile und eingebettete Geräteanwendungen. Erfahren Sie mehr über dieses Modell und wie es „denkt“ in diesem Artikel.
- Llama 3.2. 3B – Das 3B-Modell hat etwa 3,21 Milliarden Parameter mit einer Kontextlänge von bis zu 128.000 Tokens. Lesen Sie mehr darüber, wie dieses Modell verschiedene Aufgaben bewältigt.
Wie füge ich LLM Meta AI zu meinem Flow hinzu?
Sie werden feststellen, dass alle LLM-Komponenten nur einen Output-Handle haben. Der Input läuft nicht durch die Komponente, da sie nur das Modell repräsentiert, während die eigentliche Generierung in den KI-Agenten und Generatoren stattfindet.
Der LLM-Handle ist immer lila. Der LLM-Input-Handle befindet sich an jeder Komponente, die KI verwendet, um Text zu generieren oder Daten zu verarbeiten. Sie sehen die Optionen, wenn Sie auf den Handle klicken:

Damit können Sie alle Arten von Tools erstellen. Sehen wir uns die Komponente in Aktion an. Hier ist ein einfacher KI-Agent-Chatbot-Flow, der Metas Llama 3.2 1B verwendet, um Antworten zu generieren. Sie können es sich als einen grundlegenden Llama-Chatbot vorstellen.
Dieser einfache Chatbot-Flow umfasst:
- Chat-Eingabe: Repräsentiert die Nachricht, die ein Benutzer im Chat sendet.
- Chat-Verlauf: Stellt sicher, dass der Chatbot sich an frühere Antworten erinnern und diese berücksichtigen kann.
- Chat-Ausgabe: Repräsentiert die endgültige Antwort des Chatbots.
- KI-Agent: Ein autonomer KI-Agent, der Antworten generiert.
- LLM Meta AI: Die Verbindung zu Metas Textgenerierungsmodellen.

Häufig gestellte Fragen
- Was ist die LLM Meta AI-Komponente in FlowHunt?
Die LLM Meta AI-Komponente ermöglicht es Ihnen, Metas Llama-Modelle und andere Text-/Bildgeneratoren mit Ihren Flows zu verbinden. So können Sie das Modell einfach auswählen und erweiterte Einstellungen wie maximale Tokenanzahl und Temperatur konfigurieren.
- Welche Meta-Modelle unterstützt FlowHunt?
FlowHunt unterstützt Metas Open-Source-Llama-Modelle, einschließlich Llama 3.2 1B und 3B, die für Effizienz, Zusammenfassungen und On-Device-Deployments optimiert sind.
- Wie konfiguriere ich die Einstellungen für LLM Meta AI?
Sie können Einstellungen wie maximale Tokenanzahl (begrenzt die Antwortlänge), Temperatur (steuert die Kreativität der Antworten) und die Modellauswahl direkt im FlowHunt-Dashboard für jede Komponente anpassen.
- Ist es notwendig, die LLM Meta AI-Komponente zu jedem Flow hinzuzufügen?
Nein, das Hinzufügen der LLM Meta AI-Komponente ist optional. Standardmäßig verwenden die Komponenten ChatGPT-4o, aber Sie können für mehr Kontrolle oder spezielle Anwendungsfälle zu Llama oder anderen Modellen wechseln.
Testen Sie FlowHunts LLM Meta AI
Beginnen Sie damit, intelligentere Chatbots und KI-Tools mit Metas Llama-Modellen und Dutzenden anderer KI-Generatoren zu bauen – alles auf einer Plattform.