Project Icon

ruBert-base

专为俄语遮蔽填充任务优化的Transformer预训练语言模型

ruBert-base是一个专为俄语遮蔽填充任务优化的预训练语言模型。该模型基于Transformer架构,由SberDevices团队开发,采用BPE分词器,词典大小12万token,模型参数量1.78亿。模型使用30GB训练数据,是俄语自然语言处理领域的重要研究成果。ruBert-base遵循Apache-2.0许可证,为俄语NLP应用提供了强大的基础支持。

beto - 西班牙语BERT模型:BETO
BERTBETOGithub开源项目模型西班牙语语料库
此页面介绍了一个基于大型西班牙语语料库训练的BERT模型BETO,提供无区分大小写和区分大小写的Tensorflow和Pytorch版本。BETO应用全词掩蔽技术,在多项西班牙语基准测试中表现优异,并与多语言BERT及其他模型进行了对比。用户可以在HuggingFace Model Repository下载BETO模型,并通过HuggingFace Transformers库轻松使用。此外,页面还包含示例代码和引用信息。
UER-py - 自然语言处理的开源预训练工具包
BERTGithubNLP任务UER-py开源项目模型微调预训练模型
UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。
pytorch-openai-transformer-lm - 基于PyTorch的OpenAI Transformer语言模型实现
GithubOpenAIPyTorchTransformer Language Model开源项目模型预训练
该项目实现了OpenAI Transformer语言模型在PyTorch中的复现,提供了预训练权重加载脚本及模型类。采用固定权重衰减和调度学习率优化模型,支持对ROCStories Cloze任务进行微调,效果接近原始TensorFlow实现。适用于深度学习研究和语言模型的生成与分类任务。
transformers-tutorials - Transformers模型在自然语言处理中的应用教程
BERTGithubHugging FaceNLPPyTorchTransformers开源项目
本项目提供了关于如何使用Transformers模型在自然语言处理任务中进行精细调优的详细教程,包括文本分类、情感分析、命名实体识别和摘要生成等案例。教程旨在帮助用户掌握应用最新NLP技术的技巧,并提供配套的Python代码示例和工具指南。
UltraFastBERT - 指数级加速的BERT语言模型训练与推理方案
BERTGithubUltraFastBERT开源项目机器学习神经网络语言模型
UltraFastBERT是一个开源项目,旨在通过创新的快速前馈(FFF)层设计实现BERT语言模型的指数级加速。项目提供了完整的训练代码,以及在CPU、PyTorch和CUDA平台上的高效实现。包含训练文件夹、各平台基准测试代码,以及UltraFastBERT-1x11-long模型的配置和权重,可通过HuggingFace轻松加载使用。研究人员可以方便地复现结果,并进一步探索该突破性技术在自然语言处理领域的广泛应用潜力。
sentence-transformers - 多语言文本和图像嵌入向量生成框架
GithubSentence Transformers向量表示开源项目深度学习自然语言处理预训练模型
sentence-transformers是一个基于transformer网络的框架,用于生成句子、段落和图像的向量表示。该项目提供了多语言预训练模型,支持自定义训练,适用于语义搜索、相似度计算、聚类等场景。这个开源工具在自然语言处理和计算机视觉任务中表现出色,为研究人员和开发者提供了便捷的嵌入向量生成方案。
natasha - 多功能俄语自然语言处理工具,支持词嵌入、句子分割、形态标注等
GithubNLPNatashaRussian language开源项目模型优化自然语言处理
Natasha是一款用于解决俄语基础自然语言处理任务的工具,包括词标记、句子分割、词嵌入、形态标注、词形还原、短语规范化、句法解析、命名实体识别和事实提取。它在新闻领域的性能媲美或优于现有最佳模型。支持在CPU上运行,使用Numpy进行推理,注重模型体积、内存使用和性能。Natasha项目集成了多个库如Razdel、Navec、Slovnet和Yargy,提供统一的API,用户可在Python 3.7+环境中方便安装并快速上手使用。
ByteTransformer - 为BERT类Transformer优化的高性能推理库
BERTByteTransformerGithubNVIDIA GPUTransformer开源项目高性能
ByteTransformer是一个为BERT类Transformer优化的高性能推理库,支持Python和C++ API,兼容固定长度和可变长度Transformer。通过对BERT例程中的QKV编码、软最大值、前馈网络、激活、层归一化和多头注意力机制进行优化,ByteTransformer为字节跳动的内部推理系统提升了性能。基准测试结果显示,相较于PyTorch、TensorFlow、FasterTransformer和DeepSpeed,ByteTransformer在A100 GPU上的推理速度更快。
BERTopic - 高效的Transformers主题建模,支持多种模式
BERTopicGithubPythonc-TF-IDFtransformers主题建模开源项目
BERTopic是一种利用Transformers和c-TF-IDF进行主题建模的技术,能够生成易于解释的密集主题聚类,同时保留关键词描述。该项目支持多种主题建模方法,如有监督、半监督和无监督模式,具有模块化和高扩展性。丰富的可视化功能和多种表示方法进一步支持深入分析。BERTopic还兼容多种嵌入模型,并支持多语言处理,适应不同应用场景。
How-to-use-Transformers - 介绍Transformers库的自然语言处理应用教程
BERTGithubHugging FacePython库Transformers开源项目自然语言处理
该项目提供了由Hugging Face开发的Transformers库的快速入门教程,支持加载大部分预训练语言模型。教程涵盖自然语言处理背景知识、Transformers基础和实战案例,包括pipelines、模型与分词器使用、微调预训练模型及序列标注任务等。示例代码展示了句子对分类、命名实体识别、文本摘要等任务的实现,适合机器学习和NLP开发者参考。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号