Token
Token w kontekście dużych modeli językowych (LLM) to sekwencja znaków, którą model przekształca w reprezentacje numeryczne dla efektywnego przetwarzania. Tokeny są podstawowymi jednostkami tekstu wykorzystywanymi przez LLM, takimi jak GPT-3 i ChatGPT, do rozumienia i generowania języka.
•
3 min read