LLM Mistral
LLM Mistral op FlowHunt maakt flexibele integratie mogelijk van geavanceerde Mistral AI-modellen voor naadloze tekstgeneratie in chatbots en AI-tools.

Componentbeschrijving
Hoe de LLM Mistral-component werkt
Wat is de LLM Mistral-component?
De LLM Mistral-component verbindt de Mistral-modellen met je flow. Terwijl de Generators en Agents de daadwerkelijke magie uitvoeren, kun je met LLM-componenten bepalen welk model wordt gebruikt. Alle componenten komen standaard met ChatGPT-4. Je kunt deze component verbinden als je het model wilt wijzigen of er meer controle over wilt hebben.

Onthoud dat het verbinden van een LLM-component optioneel is. Alle componenten die een LLM gebruiken, komen standaard met ChatGPT-4o. Met de LLM-componenten kun je het model wijzigen en de modelinstellingen beheren.
LLM Mistral-component instellingen
Max Tokens
Tokens zijn de individuele eenheden tekst die het model verwerkt en genereert. Het tokengebruik verschilt per model; een token kan een woord, subwoord of enkel teken zijn. Modellen worden meestal afgerekend per miljoen tokens.
Met de instelling voor het maximale aantal tokens beperk je het aantal tokens dat in één interactie of verzoek verwerkt mag worden. Zo worden antwoorden binnen redelijke grenzen gegenereerd. De standaardlimiet is 4.000 tokens, een optimale grootte voor het samenvatten van documenten en meerdere bronnen om tot een antwoord te komen.
Temperatuur
De temperatuur bepaalt de variatie in de antwoorden, binnen een bereik van 0 tot 1.
Een temperatuur van 0,1 zorgt voor erg directe maar mogelijk repetitieve en beperkte antwoorden.
Een hoge temperatuur van 1 laat maximale creativiteit toe, maar verhoogt de kans op irrelevante of zelfs hallucinatoire antwoorden.
Voor bijvoorbeeld een klantenservicebot wordt een temperatuur van tussen 0,2 en 0,5 aanbevolen. Dit houdt de antwoorden relevant en volgens het script, maar laat toch natuurlijke variatie toe.
Model
Dit is de modelkiezer. Hier vind je alle ondersteunde modellen van Mistral. Momenteel ondersteunen we de volgende modellen:
- Mistral 7B – Een taalmodel met 7,3 miljard parameters, gebaseerd op de transformers architectuur en uitgebracht onder de Apache 2.0-licentie. Ondanks het kleinere formaat presteert het vaak beter dan Meta’s Llama 2-model. Bekijk hoe goed het scoorde in onze test.
- Mistral 8x7B (Mixtral) – Dit model gebruikt een sparse mixture of experts-architectuur, bestaande uit acht groepen “experts”, goed voor in totaal 46,7 miljard parameters. Elke token gebruikt tot 12,9 miljard parameters en het model presteert vergelijkbaar of beter dan LLaMA 2 70B en GPT-3.5 op de meeste benchmarks. Bekijk outputvoorbeelden.
- Mistral Large – Een krachtig taalmodel met 123 miljard parameters en een contextlengte van 128.000 tokens. Het is vloeiend in meerdere talen, inclusief programmeertalen, en levert concurrerende prestaties met modellen zoals LLaMA 3.1 405B, vooral bij programmeertaken. Lees hier meer.
Hoe voeg je de LLM Mistral toe aan je flow
Je zult merken dat alle LLM-componenten alleen een output-handle hebben. Input gaat niet via deze component, die uitsluitend het model voorstelt; de daadwerkelijke generatie gebeurt in AI Agents en Generators.
De LLM-handle is altijd paars. De LLM-input-handle vind je op elke component die AI gebruikt om tekst te genereren of data te verwerken. Je ziet de opties door op de handle te klikken:

Hiermee kun je allerlei soorten tools maken. Laten we de component in actie zien. Hier is een eenvoudige AI Agent chatbot-flow die het Mistral 7B-model gebruikt om antwoorden te genereren. Je kunt het zien als een simpele Mistral-chatbot.
Deze eenvoudige Chatbot Flow bevat:
- Chatinvoer: Vertegenwoordigt het bericht dat een gebruiker in de chat stuurt.
- Chatgeschiedenis: Zorgt dat de chatbot eerdere antwoorden kan onthouden en meenemen.
- Chatoutput: Vertegenwoordigt het uiteindelijke antwoord van de chatbot.
- AI Agent: Een autonome AI-agent die antwoorden genereert.
- LLM Mistral: De verbinding met Mistral’s tekstgeneratiemodellen.

Veelgestelde vragen
- Wat is de LLM Mistral-component in FlowHunt?
De LLM Mistral-component laat je Mistral AI-modellen verbinden met je FlowHunt-projecten, waardoor geavanceerde tekstgeneratie mogelijk wordt voor je chatbots en AI-agenten. Je kunt modellen wisselen, instellingen beheren en modellen zoals Mistral 7B, Mixtral (8x7B) en Mistral Large integreren.
- Welke Mistral-modellen worden ondersteund door FlowHunt?
FlowHunt ondersteunt Mistral 7B, Mixtral (8x7B) en Mistral Large, die elk verschillende prestaties en parameter-niveaus bieden voor uiteenlopende tekstgeneratiebehoeften.
- Welke instellingen kan ik aanpassen met de LLM Mistral-component?
Je kunt instellingen zoals maximale tokens en temperatuur aanpassen, en kiezen tussen ondersteunde Mistral-modellen om de lengte van antwoorden, creativiteit en het modelgedrag binnen je flows te bepalen.
- Is het verbinden van de LLM Mistral-component vereist voor elk project?
Nee, het verbinden van een LLM-component is optioneel. Standaard gebruiken FlowHunt-componenten ChatGPT-4o. Gebruik de LLM Mistral-component wanneer je meer controle wilt of een specifiek Mistral-model wilt inzetten.
Probeer vandaag nog FlowHunt’s LLM Mistral
Begin met het bouwen van slimmere AI-chatbots en tools door de krachtige taalmodellen van Mistral te integreren met FlowHunt’s no-code platform.