Tech Blog
  • Home
  • Archives
  • Categories
  • Tags
  • About
  • contact
Your Name April 3, 2025 pm
18 words 1 mins

大模型-分词器

Tokenizer

基于规则

基于统计

WordPiece

Byte-Pair Encoding(BPE)

tiktoken是OpenAI实现BPE方法。

SentencePiece


AI > 生成模型
#AI #深度学习 #生成式AI
大模型-分词器
https://summerchengh.github.io/tech-blog/2025/04/03/大模型-分词器/
Author
Your Name
Posted on
April 3, 2025
Licensed under
语义分割:技术发展脉络与大模型时代的解决方案 Previous
你的大脑也许根本就不会老:认知能力与年龄的复杂关系 Next

Table of Contents

Search

Hexo Fluid