rust-tokenizers
rust-tokenizers是一个为现代自然语言处理模型设计的分词器库。该项目支持WordPiece、BPE和Unigram等分词算法,适用于BERT、GPT、RoBERTa等Transformer架构。库提供单线程和多线程处理,并具有Python接口,可用于各类NLP项目的文本预处理。