技术
分词 (Tokenization)
Tokenization
把原始文字切成 token(子词、整词或字符)的过程,这些 token 才是 LLM 实际处理的单位。
技术
Tokenization
把原始文字切成 token(子词、整词或字符)的过程,这些 token 才是 LLM 实际处理的单位。
We use cookies
Anonymous analytics help us improve the site. You can opt out anytime. Learn more