Skip to content
ToyLLM项目文档
Main Navigation
Home
深色模式开关
文档导航
回到顶部
页面导航
大模型相关知识学习记录
大模型理论基础
大模型基础组件 Tokenizer
Tokenizer 分词器是 NLP 大模型最基础的组件,基于 Tokenizer 可以将文本转换成独立的 token 列表,进而转换成输入的向量成为计算机可以理解的输入形式。
[
1
]
大模型开发框架
transformers
参考资料
[1]
大模型基础组件 - Tokenizer - nghuyong的文章 - 知乎