#BERT

tensorflow-nlp-tutorial项目介绍 - TensorFlow自然语言处理入门教程

2 个月前
Cover of tensorflow-nlp-tutorial项目介绍 - TensorFlow自然语言处理入门教程

vits_chinese学习资料汇总 - 基于BERT和VITS的高质量中文语音合成系统

2 个月前
Cover of vits_chinese学习资料汇总 - 基于BERT和VITS的高质量中文语音合成系统

UER-py入门指南 - 基于PyTorch的开源预训练模型框架

2 个月前
Cover of UER-py入门指南 - 基于PyTorch的开源预训练模型框架

text-embeddings-inference入门指南 - 高性能文本嵌入推理解决方案

2 个月前
Cover of text-embeddings-inference入门指南 - 高性能文本嵌入推理解决方案

FasterTransformer入门指南 - 高性能Transformer模型推理加速库

2 个月前
Cover of FasterTransformer入门指南 - 高性能Transformer模型推理加速库

AnglE 学习资料汇总 - 强大的句子嵌入训练和推理框架

2 个月前
Cover of AnglE 学习资料汇总 - 强大的句子嵌入训练和推理框架

contrastors学习资料汇总 - 高效训练和评估对比学习模型的工具包

2 个月前
Cover of contrastors学习资料汇总 - 高效训练和评估对比学习模型的工具包

nlp-recipes入门指南 - 微软开源的自然语言处理最佳实践与示例

2 个月前
Cover of nlp-recipes入门指南 - 微软开源的自然语言处理最佳实践与示例

基于BERT的文本纠错模型实现及应用

3 个月前
Cover of 基于BERT的文本纠错模型实现及应用

Transformer模型在硅片上的研究与实现:硬件加速的前沿探索

3 个月前
Cover of Transformer模型在硅片上的研究与实现:硬件加速的前沿探索
相关项目
Project Cover

网易有道速读

网易有道速读使用先进AI技术,助力用户快速提取、定位和汇总文档信息,提供论文阅读、翻译和Q&A等一站式服务,以提高文档处理和学习效率。适用于学术研究与日常学习,帮助用户高效理解信息和积累知识。

Project Cover

contrastors

contrastors 是一个高效的对比学习工具包,支持多GPU和大批量训练优化。支持通过Huggingface快速加载常见模型如BERT和GPTNeoX,适用于处理复杂的语言和视觉嵌入任务。

Project Cover

AnglE

AnglE框架可通过多样化的模型策略和损失函数,进行基于BERT和LLM模型的句子嵌入训练和推理,已在众多语义相似度任务中表现卓越。

Project Cover

spacy-transformers

spacy-transformers通过Hugging Face的transformers实现预训练模型如BERT、XLNet和GPT-2的集成,提升spaCy的功能。支持多任务学习、转换器输出自动对齐等,兼容Python 3.6以上版本,需要PyTorch v1.5+和spaCy v3.0+。

Project Cover

FasterTransformer

FasterTransformer不仅支持多框架集成,还针对NVIDIA新一代GPU优化了编解码性能,极大提升了操作效率和处理速度。包含模型支持、性能对比及API演示的详细文档,有助于用户深入了解并有效使用FasterTransformer。

Project Cover

text-embeddings-inference

Text Embeddings Inference 为文本嵌入模型提供高效的推理服务,支持多种模型配置,适合AI及深度学习需求。快速部署和卓越的服务器级性能使其成为企业和研究机构面对大规模文本处理和复杂查询时的理想选择,支持包括 [BERT](https://link-to-bert) 和 [RoBERTa](https://link-to-roberta) 在内的多种模型,并兼容 Docker 和完备的 API 文档。

Project Cover

vits_chinese

vits_chinese项目引入了BERT和VITS技术,通过隐藏的韵律嵌入和自然语言特性,显著提高了文本到语音合成的音质和自然度。此项目不只适于高质量音频生成,也提供模块化蒸馏加速和在线演示,便利学习和开发人员的应用。

Project Cover

UER-py

UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。

Project Cover

nlp-recipes

该资源库提供构建NLP系统的示例和最佳实践,重点关注最新的深度学习方法和常见场景,如文本分类、命名实体识别和文本摘要。支持多语言,特别是利用预训练模型应对不同语言任务。内容基于与客户的合作经验,旨在简化开发过程,帮助数据科学家和工程师快速部署AI解决方案。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号