#分词器

bytepiece - 创新高效的字节级Unigram分词工具
Github开源项目PythonBytePiece分词器Unigram压缩率
BytePiece是一款基于字节的Unigram分词工具,采用创新训练算法实现高压缩率。该工具直接处理UTF-8字节,无需预处理,确保语言无关性。相比SentencePiece,BytePiece具有更高效的随机分词算法,支持多进程训练加速,并采用纯Python实现,便于二次开发。这一工具为自然语言处理提供了纯粹、易扩展的分词方案。
zett - 突破语言模型与分词器的兼容性限制
Github开源项目语言模型模型迁移超网络分词器Zero-Shot Tokenizer Transfer
ZeTT是一个创新的开源项目,旨在解决语言模型与分词器之间的兼容性问题。该项目通过零样本分词器迁移技术,使任何语言模型能够与任意分词器协同工作,几乎不需要额外训练。ZeTT提供多个预训练超网络,支持26种语言和代码处理。用户可以轻松将现有模型适配新的分词器,提升模型的通用性。此外,ZeTT还支持训练自定义超网络和迁移微调模型等高级功能,为自然语言处理研究提供新的可能性。
tiktoken - 为OpenAI模型优化的高性能BPE分词器
Github开源项目OpenAI性能优化BPE分词器tiktoken
tiktoken是一款为OpenAI模型优化的BPE分词器。该工具提供快速的文本编码和解码功能,支持多种编码方式,易于集成到Python项目中。相较于其他开源分词器,tiktoken的性能提升了3-6倍。除了标准功能外,tiktoken还包含教育性子模块,有助于理解BPE算法原理。此外,该工具支持自定义扩展,可满足特定应用需求。
vaporetto - 基于点预测的高效日语分词工具
Github开源项目模型训练Rust分词器Vaporetto标签预测
Vaporetto是一款基于点预测的日语分词工具,具有高速和轻量级的特点。它提供Rust API和命令行界面,支持使用预训练模型、转换KyTea模型或自定义训练。Vaporetto的分词速度比KyTea快8.7倍,性能卓越。此外,它还具备词性和发音标注功能,并允许通过词典编辑优化分词结果。作为一个高效可靠的解决方案,Vaporetto适用于各种日语自然语言处理任务。
rust-tokenizers - Rust实现的高性能自然语言处理分词器
Github开源项目自然语言处理性能优化语言模型分词器rust-tokenizers
rust-tokenizers是一个为现代自然语言处理模型设计的分词器库。该项目支持WordPiece、BPE和Unigram等分词算法,适用于BERT、GPT、RoBERTa等Transformer架构。库提供单线程和多线程处理,并具有Python接口,可用于各类NLP项目的文本预处理。
koelectra-base-v3-discriminator - 韩语ELECTRA预训练判别器模型
Github开源项目预训练模型模型Huggingface韩语分词器判别器ELECTRA
koelectra-base-v3-discriminator是第三代韩语ELECTRA预训练语言模型判别器,采用base规模参数配置。模型内置韩语文本处理功能,通过tokenizer实现文本标记化和ID转换,主要应用于文本分类、伪造内容检测等自然语言处理任务。项目采用Apache 2.0许可证开源发布。