#BPE
attention-is-all-you-need-pytorch学习资料汇总 - PyTorch实现Transformer模型
2 个月前
Attention is All You Need: PyTorch实现Transformer模型
3 个月前
相关项目
attention-is-all-you-need-pytorch
本项目基于《Attention is All You Need》论文实现了PyTorch版Transformer模型,利用自注意力机制替代传统的卷积和循环结构,在WMT 2014英德翻译任务中表现出色。项目支持模型训练和翻译,部分字节对编码相关部分尚未完全测试,仍在开发中。提供详细的教程,包括数据预处理、模型训练和测试步骤,为用户提供全面指导。
tiktoken
tiktoken是一款为OpenAI模型优化的BPE分词器。该工具提供快速的文本编码和解码功能,支持多种编码方式,易于集成到Python项目中。相较于其他开源分词器,tiktoken的性能提升了3-6倍。除了标准功能外,tiktoken还包含教育性子模块,有助于理解BPE算法原理。此外,该工具支持自定义扩展,可满足特定应用需求。
subword-nmt
subword-nmt是一个文本子词分割预处理工具,主要应用于神经机器翻译领域。它实现了字节对编码(BPE)等算法,具备多语言联合学习、词汇过滤和BPE dropout等功能。该工具支持pip安装,提供命令行接口,适用于各类NMT任务,可有效处理罕见词。