Componentbeschrijving
Hoe de LLM Gemini-component werkt
Wat is de LLM Gemini-component?
De LLM Gemini-component verbindt de Gemini-modellen van Google met je flow. Hoewel de Generators en Agents de plekken zijn waar de echte magie gebeurt, kun je met LLM-componenten het gebruikte model beheren. Alle componenten worden standaard geleverd met ChatGPT-4. Je kunt deze component verbinden als je het model wilt wijzigen of er meer controle over wilt hebben.

Onthoud dat het verbinden van een LLM-component optioneel is. Alle componenten die een LLM gebruiken worden standaard geleverd met ChatGPT-4o. Met de LLM-componenten kun je het model wijzigen en de modelinstellingen beheren.
Instellingen van de LLM Gemini-component
Max Tokens
Tokens vertegenwoordigen de individuele eenheden tekst die het model verwerkt en genereert. Het tokengebruik verschilt per model en een enkele token kan alles zijn van een woord of subwoord tot één teken. Modellen worden meestal geprijsd per miljoen tokens.
De instelling voor het maximale aantal tokens beperkt het totale aantal tokens dat in een enkele interactie of aanvraag verwerkt kan worden, zodat de antwoorden binnen redelijke grenzen blijven. De standaardlimiet is 4.000 tokens, de optimale grootte voor het samenvatten van documenten en verschillende bronnen om een antwoord te genereren.
Temperatuur
Temperatuur bepaalt de variatie in antwoorden, en loopt van 0 tot 1.
Een temperatuur van 0,1 zorgt ervoor dat de antwoorden zeer to the point zijn, maar mogelijk repetitief en karig.
Een hoge temperatuur van 1 staat maximale creativiteit in antwoorden toe, maar vergroot het risico op irrelevante of zelfs hallucinatoire antwoorden.
Voor een klantenservicebot wordt bijvoorbeeld een temperatuur van tussen 0,2 en 0,5 aanbevolen. Dit niveau houdt de antwoorden relevant en volgens het script, maar laat wel natuurlijke variatie toe.
Model
Dit is de modelkiezer. Hier vind je alle ondersteunde Gemini-modellen van Google. Wij ondersteunen alle nieuwste Gemini-modellen:
- Gemini 2.0 Flash Experimental – Een geavanceerd, low-latency model ontworpen voor agents. Het beschikt over nieuwe mogelijkheden zoals native toolgebruik, beeldcreatie en spraakgeneratie. Zie hoe goed het meest geavanceerde Google-model routine taken afhandelde in onze tests.
- Gemini 1.5 Flash – Een lichtgewicht, multimodaal model geoptimaliseerd voor snelheid en efficiëntie, in staat om audio-, beeld-, video- en tekstinvoer te verwerken, met een contextvenster tot 1.048.576 tokens. Lees hier meer.
- Gemini 1.5 Flash-8B – Een kleinere, snellere en kostenefficiëntere variant van het 1.5 Flash-model, met vergelijkbare multimodale mogelijkheden, een 50% lagere prijs en 2x hogere limieten dan 1.5 Flash. Hoe goed is de output van het zwakste model? Ontdek het hier.
- Gemini 1.5 Pro – Een middelgroot multimodaal model, geoptimaliseerd voor een breed scala aan redeneertaken, in staat om grote hoeveelheden data te verwerken, inclusief uitgebreide audio- en video-invoer, met een input tokenlimiet van 2.097.152. Bekijk outputvoorbeelden.
Hoe voeg je de LLM Gemini toe aan je flow
Je zult merken dat alle LLM-componenten alleen een output-handle hebben. Input gaat niet door de component, omdat deze alleen het model vertegenwoordigt, terwijl de daadwerkelijke generatie plaatsvindt in AI Agents en Generators.
De LLM-handle is altijd paars. De LLM-input-handle vind je op elke component die AI gebruikt om tekst te genereren of data te verwerken. Je ziet de opties door op de handle te klikken:

Dit stelt je in staat allerlei tools te creëren. Laten we de component in actie zien. Hier is een eenvoudige AI Agent chatbot-flow die Gemini 2.0 Flash Experimental gebruikt om antwoorden te genereren. Je kunt het zien als een basis Gemini-chatbot.
Deze eenvoudige Chatbot Flow bestaat uit:
- Chatinput: Vertegenwoordigt het bericht dat een gebruiker in de chat stuurt.
- Chatgeschiedenis: Zorgt ervoor dat de chatbot eerdere antwoorden kan onthouden en meenemen.
- Chatoutput: Vertegenwoordigt het uiteindelijke antwoord van de chatbot.
- AI Agent: Een autonome AI-agent die antwoorden genereert.
- LLM Gemini: De verbinding met Google’s tekstgeneratiemodellen.

Voorbeelden van flowsjablonen met LLM Gemini-component
Om u snel op weg te helpen, hebben we verschillende voorbeeld-flowsjablonen voorbereid die laten zien hoe u de LLM Gemini-component effectief kunt gebruiken. Deze sjablonen tonen verschillende gebruikscases en best practices, waardoor het voor u gemakkelijker wordt om de component te begrijpen en te implementeren in uw eigen projecten.
Veelgestelde vragen
- Wat is de LLM Gemini-component in FlowHunt?
LLM Gemini verbindt Google's Gemini-modellen met je FlowHunt AI-flows, zodat je kunt kiezen uit de nieuwste Gemini-varianten voor tekstgeneratie en hun gedrag kunt aanpassen.
- Welke Gemini-modellen worden ondersteund?
FlowHunt ondersteunt Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B en Gemini 1.5 Pro—elk met unieke mogelijkheden voor tekst-, beeld-, audio- en video-invoer.
- Hoe beïnvloeden Max Tokens en Temperatuur de antwoorden?
Max Tokens beperkt de lengte van het antwoord, terwijl Temperatuur de creativiteit bepaalt—lagere waarden geven gerichte antwoorden, hogere waarden zorgen voor meer variatie. Beide kunnen per model in FlowHunt worden ingesteld.
- Is het verplicht om de LLM Gemini-component te gebruiken?
Nee, het gebruik van LLM-componenten is optioneel. Alle AI-flows worden standaard geleverd met ChatGPT-4o, maar door LLM Gemini toe te voegen kun je overschakelen naar Google-modellen en hun instellingen verfijnen.
Probeer Google Gemini met FlowHunt
Begin met het bouwen van geavanceerde AI-chatbots en tools met Gemini en andere topmodellen—alles in één dashboard. Wissel van model, pas instellingen aan en stroomlijn je workflows.