Token
Een token in de context van grote taalmodellen (LLM's) is een reeks tekens die het model omzet in numerieke representaties voor efficiënte verwerking. Tokens zijn de basiseenheden van tekst die door LLM's zoals GPT-3 en ChatGPT worden gebruikt om taal te begrijpen en te genereren.
•
3 min read