#Tokenizer
Tokenizer: 高效的文本分词利器
3 个月前
相关项目
Tokenizer
该项目提供了TypeScript和C#版的字节对编码(BPE)tokenizer,主要用于OpenAI LLMs,并基于开源的Rust实现。适用于Node.js和.NET环境,在传递提示词给LLM前进行tokenization处理。建议C#用户从Microsoft.DeepDev.TokenizerLib迁移至性能更优的Microsoft.ML.Tokenizers。欢迎开发者贡献代码和意见。
tokenizer
Tokenizer是一个纯Go语言实现的自然语言处理分词库,支持Word level、Wordpiece和BPE等多种分词模型。该项目可用于训练新模型或微调现有模型,并兼容HuggingFace预训练模型。Tokenizer为Go开发者提供了构建NLP应用所需的工具,助力高效生产级软件开发。