BytePiece简介
BytePiece是由苏剑林开发的一个新型Tokenizer,它采用基于字节的Unigram分词算法,具有以下主要特点:
- 纯Python实现,代码易读易扩展
- 采用新的训练算法,压缩率通常比现有Tokenizer更高
- 支持多进程加速训练
- 直接操作UTF-8字节,几乎不进行任何预处理,更加纯粹和语言无关
BytePiece的设计目标是成为一个理想的Tokenizer,具备无损重构、高压缩率、语言无关、数据驱动和训练友好等特性。相比主流的SentencePiece,BytePiece在某些方面做出了改进和创新。
BytePiece的核心原理
BytePiece的核心是采用了基于**字节级N-gram语言模型(BNLM)**的新训练方式。这种方法能够获得更高压缩率的词表,同时支持多进程训练,在同等语料下相比SentencePiece的BPE训练有明显的加速效果。
具体来说,BytePiece的训练算法基于N-gram语言模型的新词发现算法,这一算法最早由作者在7年前的博客中提出。此外,BytePiece还提供了比Subword Regularization更高效的随机分词算法。
BytePiece的训练过程分为两个阶段:
- 使用BNLM从原始文本中挖掘出候选词片段
- 使用EM算法迭代优化词表
这种新的训练方案是BytePiece能够获得更高压缩率的关键所在。
BytePiece的主要特性
-
高压缩率: 在相同词表大小下,BytePiece通常能获得比SentencePiece更高的压缩率。
-
快速训练: 支持多进程训练,在大规模语料上的训练速度明显快于SentencePiece的BPE算法。
-
语言无关: 直接操作UTF-8字节,不对文本做任何语言相关的预处理。
-
纯Python实现: 代码易读易扩展,方便研究和二次开发。
-
高效随机分词: 提供比Subword Regularization更高效的随机分词算法。
-
支持流式输入: 训练时支持迭代器输入,无需一次性将所有语料读入内存。
BytePiece的安装与使用
安装
BytePiece只能在Python 3上运行,安装前需要先安装Byte-based版的pyahocorasick:
pip uninstall pyahocorasick
AHOCORASICK_BYTES=1 pip install git+https://github.com/WojciechMula/pyahocorasick.git
然后安装BytePiece:
pip install bytepiece==0.6.3
训练Tokenizer
训练Tokenizer只需要引入Trainer
类:
from bytepiece import Trainer
trainer = Trainer(order=6, max_vocab_size=100000, min_count=32)
trainer.train(corpus(), workers=64, batch_size=1000)
trainer.save('bytepiece.model')
主要参数说明:
order
: n-gram语言模型的阶,默认6max_vocab_size
: 词表最大尺寸min_count
: token最低出现频数workers
: 并行训练的进程数batch_size
: 批大小
使用Tokenizer
训练完成后,可以这样使用Tokenizer:
from bytepiece import Tokenizer
tokenizer = Tokenizer('bytepiece.model')
text = '今天天气不错'
tokens = tokenizer.tokenize(text) # 返回bytes的list
print(b' '.join(tokens).decode(errors='ignore')) # 可视化分词结果
ids = tokenizer.encode(text) # 返回tokens对应的ids
print(tokenizer.decode(ids)) # 重新将ids解码为unicode文本
BytePiece还支持随机分词:
tokens = tokenizer.tokenize(text, alpha=0.2) # 随机tokenize
BytePiece与SentencePiece的对比
在小数据量和大数据量上,BytePiece与SentencePiece(SP)的BPE和Unigram算法进行了对比测试,结果如下:
小数据量对比:
训练时间↓ | 最大内存占用↓ | 压缩率↑ | 分词速度↑ | |
---|---|---|---|---|
SP-BPE | 55.3分钟 | 5.2GB | 4.80 | 5.47 |
SP-Unigram | 1.6分钟 | 2.5GB | 4.73 | 7.84 |
BytePiece | 6.5分钟 | 4.3GB | 5.05 | 2.50 |
大数据量对比:
训练时间↓ | 最大内存占用↓ | 压缩率(同源)↑ | 压缩率(异源)↑ | 分词速度↑ | |
---|---|---|---|---|---|
SP-BPE | 19.21小时 | 97GB | 4.52 | 4.46 | 1.27 |
SP-Unigram | 2.02小时 | 384GB | 4.51 | 4.48 | 5.55 |
BytePiece | 2.24小时 | 51GB | 5.39 | 4.51 | 1.92 |
从结果可以看出:
- BytePiece在压缩率上普遍优于SentencePiece。
- 在大数据量上,BytePiece的训练时间和内存占用明显优于SP-BPE。
- BytePiece的分词速度在长文本上优于SP-BPE,但短文本上略逊。
这些结果表明,BytePiece在保持高压缩率的同时,还具有良好的训练效率和内存利用率。
BytePiece的应用前景
BytePiece作为一种新型的Tokenizer,在以下场景中具有很好的应用前景:
-
大规模语言模型训练: 高压缩率和快速训练特性使其适合处理海量文本数据。
-
多语言NLP任务: 语言无关的特性使其能够很好地处理多语言文本。
-
资源受限环境: 纯Python实现和低内存占用使其适合在资源受限的环境中使用。
-
NLP研究和教学: 代码易读易扩展的特性有利于深入研究和教学。
-
实时文本处理: 高效的分词算法使其适用于实时文本处理场景。
总结
BytePiece作为一种新型的Tokenizer,在压缩率、训练效率和语言无关性等方面都表现出了优秀的特性。它的出现为NLP领域提供了一个新的选择,特别是在处理大规模多语言文本数据时,BytePiece可能会带来显著的性能提升。
然而,BytePiece仍然是一个相对新的项目,可能还需要更多的实际应用和测试来验证其在各种场景下的表现。对于研究者和开发者来说,BytePiece无疑是一个值得关注和尝试的工具。
随着自然语言处理技术的不断发展,我们可以期待BytePiece在未来会得到更广泛的应用,并在实践中不断完善和提升其性能。同时,BytePiece的开源性质也为社区贡献和改进提供了机会,相信在开发者的共同努力下,BytePiece会变得更加强大和实用。