Logo

Rust-tokenizers: 高性能自然语言处理分词器库

rust-tokenizers

Rust-tokenizers: 为 NLP 模型提供高性能分词支持

在自然语言处理(NLP)领域,分词是一项基础且关键的任务。随着深度学习模型的发展,对分词器的性能和功能要求也越来越高。Rust-tokenizers 正是为满足这一需求而生的高性能分词器库。

项目概述

Rust-tokenizers 是一个用 Rust 语言编写的开源分词器库,旨在为现代 NLP 模型提供高效的分词支持。该项目由 Guillaume Becquin 发起并维护,目前在 GitHub 上已获得 288 颗星和 25 次 fork。

Rust-tokenizers GitHub 仓库截图

Rust-tokenizers 的主要特点包括:

  1. 高性能: 充分利用 Rust 语言的性能优势,提供快速的分词处理。
  2. 多种算法: 支持 WordPiece、Byte-Pair Encoding (BPE)和 Unigram (SentencePiece)等主流分词算法。
  3. 广泛兼容: 可用于多种主流 Transformer 模型,如 BERT、GPT、RoBERTa 等。
  4. 多线程支持: 部分分词器提供多线程处理能力,进一步提升性能。
  5. Python 绑定: 除 Rust API 外,还提供 Python 绑定,方便在 Python 项目中使用。

支持的分词器

Rust-tokenizers 支持以下主流 NLP 模型的分词器:

  • Sentence Piece (unigram 模型)
  • Sentence Piece (BPE 模型)
  • BERT
  • ALBERT
  • DistilBERT
  • RoBERTa
  • GPT
  • GPT2
  • ProphetNet
  • CTRL
  • Pegasus
  • MBart50
  • M2M100
  • DeBERTa
  • DeBERTa (v2)

这些分词器覆盖了目前自然语言处理领域最常用的一系列预训练模型,为研究人员和开发者提供了广泛的选择。

使用示例

下面是一个使用 Rust-tokenizers 中 BERT 分词器的简单示例:

use std::path::PathBuf;
use rust_tokenizers::tokenizer::{BertTokenizer, Tokenizer, TruncationStrategy};
use rust_tokenizers::vocab::{BertVocab, Vocab};

fn main() -> Result<(), Box<dyn std::error::Error>> {
    let lowercase: bool = true;
    let strip_accents: bool = true;
    let vocab_path: PathBuf  = PathBuf::from("path/to/vocab");
    let vocab: BertVocab = BertVocab::from_file(&vocab_path)?;
    let test_sentence = "This is a sample sentence to be tokenized";
    let bert_tokenizer: BertTokenizer = BertTokenizer::from_existing_vocab(vocab, lowercase, strip_accents);

    let encoding = bert_tokenizer.encode(
        test_sentence,
        None,
        128,
        &TruncationStrategy::LongestFirst,
        0
    )?;
    
    println!("Tokens: {:?}", encoding.get_tokens());
    println!("Token IDs: {:?}", encoding.get_ids());

    Ok(())
}

这个例子展示了如何加载 BERT 词汇表,创建 BERT 分词器,并对一个简单的句子进行分词。代码中的 encode 方法返回一个 Encoding 对象,其中包含了分词结果、token ID 等信息。

Python 绑定

除了原生的 Rust API,Rust-tokenizers 还提供了 Python 绑定,让 Python 开发者也能享受到其高性能的优势。以下是一个使用 Python API 的示例:

from rust_transformers import PyBertTokenizer
from transformers import BertForSequenceClassification
import torch

rust_tokenizer = PyBertTokenizer('bert-base-uncased-vocab.txt')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased', output_attentions=False).cuda()
model = model.eval()

sentence = '''For instance, on the planet Earth, man had always assumed that he was more intelligent than dolphins because 
              he had achieved so much—the wheel, New York, wars and so on—whilst all the dolphins had ever done was muck 
              about in the water having a good time. But conversely, the dolphins had always believed that they were far 
              more intelligent than man—for precisely the same reasons.'''

features = rust_tokenizer.encode(sentence, max_len=128, truncation_strategy='only_first', stride=0)
input_ids = torch.tensor([f.token_ids for f in features], dtype=torch.long).cuda()

with torch.no_grad():
    output = model(input_ids)[0].cpu().numpy()

print("Model output:", output)

这个例子展示了如何在 Python 中使用 Rust-tokenizers 的 BERT 分词器,并结合 Hugging Face 的 transformers 库进行序列分类任务。

性能优势

Rust-tokenizers 的一大亮点是其出色的性能。得益于 Rust 语言的高效和底层控制能力,Rust-tokenizers 能够提供比纯 Python 实现更快的分词速度。特别是在处理大规模文本数据时,这种性能优势更为明显。

Rust-tokenizers 性能对比图

上图展示了 Rust-tokenizers 与其他分词器实现的性能对比。可以看到,在多数情况下,Rust-tokenizers 能够提供更快的处理速度。

安装和使用

对于 Rust 开发者,可以通过在 Cargo.toml 文件中添加依赖来使用 Rust-tokenizers:

[dependencies]
rust_tokenizers = "8.1.1"

对于 Python 开发者,需要先安装 Rust 环境(推荐使用 nightly 版本),然后通过以下步骤安装 Python 绑定:

  1. 克隆 Rust-tokenizers 仓库
  2. 进入 /python-bindings 目录
  3. 运行 python setup.py install

这将编译 Rust 库并安装 Python API。

社区和贡献

Rust-tokenizers 是一个活跃的开源项目,欢迎社区贡献。如果你在使用过程中遇到问题或有改进建议,可以在 GitHub 仓库提出 issue 或提交 pull request。项目维护者 Guillaume Becquin 和其他贡献者会积极响应社区反馈。

未来展望

随着 NLP 技术的不断发展,Rust-tokenizers 也在持续更新以支持新的模型和算法。未来,我们可以期待:

  1. 支持更多新兴的 NLP 模型和分词算法
  2. 进一步优化性能,特别是在多核处理器上的并行能力
  3. 改进 Python 绑定,提供更丰富的 API 和更好的集成体验
  4. 增加更多的文档和教程,帮助开发者更好地使用库

结语

Rust-tokenizers 为 NLP 领域带来了高性能、灵活和易用的分词解决方案。无论是在学术研究还是工业应用中,它都是一个值得考虑的强大工具。随着项目的不断发展和社区的支持,我们有理由相信 Rust-tokenizers 将在未来的 NLP 生态系统中扮演越来越重要的角色。

如果你正在寻找一个高效、可靠的分词器库,不妨给 Rust-tokenizers 一次尝试。它可能会成为提升你的 NLP 项目性能的关键一步。

查看 Rust-tokenizers GitHub 仓库 Rust-tokenizers 文档

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
Project Cover
稿定AI
稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号