Project Icon

opus-mt-uk-en

乌克兰语至英语的开源神经机器翻译模型

opus-mt-uk-en是一个开源的乌克兰语到英语神经机器翻译模型,基于transformer-align架构开发。该模型使用OPUS数据集训练,经过normalization和SentencePiece预处理。在Tatoeba测试集上,模型达到了64.1的BLEU分数和0.757的chr-F分数,显示出良好的翻译效果。研究者可以下载预训练权重和测试集结果进行进一步评估和应用。

fairseq - 序列建模工具包,支持机器翻译与文本生成
FairseqGithubPyTorch序列建模开源项目文本生成机器翻译
Fairseq 是一个序列建模工具包,适用于机器翻译和文本生成。支持多GPU训练,提供灵活配置和扩展能力,以及多种预训练模型和参考实现。内置束搜索和抽样等算法,支持混合精度训练和参数CPU卸载,为研究人员和开发人员提供高效解决方案。
mbart-large-50-many-to-one-mmt - 支持50种语言直接互译的多语言机器翻译模型
GithubHugging FaceHuggingfacemBART-50多语言机器翻译开源项目模型神经网络模型自然语言处理
mbart-large-50-many-to-one-mmt是一个基于mBART-large-50微调的多语言机器翻译模型,支持50种语言之间的直接互译。该模型无需中间语言,使用简单,只需几行代码即可实现翻译。它在处理低资源语言和长文本方面表现优异,适用于跨语言交流和全球化业务场景。模型覆盖多个语系,包括印欧、亚非和阿尔泰语系等,为用户提供全面的多语言翻译解决方案。
COKAL-DPO_test-v2-13b - 采用LLaMA2架构的13B规模自动回归语言模型
COKAL-DPO_test-v2GithubHuggingfacetransformers开源项目模型模型开发训练数据集语言模型
模型由韩国公司Media Group Saramwa Soop与Marker合作开发,基于LLaMA2变压器架构,具备文本生成能力。基础模型为COKAL_pre_DPO_Test_v1-13b,采用DPO及SFT私有数据集训练,适用于多种文本生成任务。该研究项目由韩国科学技术信息通信部和光州广域市资助,旨在推动人工智能产业集群发展。
MetaTransformer - 统一12种模态的多模态学习框架
GithubMeta-Transformer人工智能多模态学习开源项目深度学习计算机视觉
Meta-Transformer是一个创新的多模态学习框架,可处理12种不同模态的数据,包括自然语言、图像、点云和音频等。该框架采用共享编码器架构和数据到序列转换方法,支持分类、检测和分割等多种任务。项目提供开源预训练模型和代码实现,为多模态AI研究提供了有力支持。
v3_1_pt_ep1_sft_5_based_on_llama3_1_70b_final_data_20241026 - 揭示新型Transformer模型的实际应用与研究进展
GithubHuggingfacetransformers偏见开源项目模型模型卡环境影响评估
该文档介绍了新型Transformers模型的功能、应用领域与局限性,包含使用指南、训练数据概述、程序步骤、评估方法及其环境影响评估,为读者提供全面的信息参考。
transformerlab-app - 多功能大语言模型实验平台 支持本地操作和微调
GithubTransformer Lab人工智能开源软件开源项目模型训练语言模型
Transformer Lab是一个功能丰富的大语言模型实验平台。该应用支持一键下载多种流行模型、跨硬件微调、RLHF优化等功能。平台提供模型聊天、评估和RAG等交互方式,并具备REST API、云端运行和插件系统。Transformer Lab适用于多种操作系统,为AI研究和开发提供了便捷的工具。
rubert-base-cased-sentence - 为俄语句子表示提供的先进自然语言处理模型
GithubHuggingfaceRuBERT俄语模型句子编码开源项目模型自然语言处理语义表示
rubert-base-cased-sentence是一个为俄语开发的句子编码器。该模型基于RuBERT,经过SNLI俄语翻译数据集和XNLI开发集俄语部分的微调。它采用12层结构,768个隐藏单元,12个注意力头,总计180M参数。通过平均池化token嵌入生成句子表示,为俄语自然语言处理任务奠定了坚实基础。
mamba-370m-hf - 兼容transformers库的高效语言模型
GithubHuggingfaceMambafinetuningtransformers开源项目模型生成
项目是一种与transformers库兼容的语言模型,整合了config.json和tokenizer,以提高文本生成的速度和准确性。建议安装transformers的最新主版本,以及causal_conv_1d和mamba-ssm,以充分利用优化的cuda内核。该项目支持经典的generate API和PEFT微调,使用float32格式进行微调可获得最佳性能表现,从而提升文本生成任务的效率和质量。项目形成了一种与transformers库兼容的模型环境,通过优化策略实现高效文本生成。
transformers - 免费开源的transformers课程,详解关键概念与实践操作
BERTGithubtransformers多头注意力机制开源项目自注意力机制课程
该课程由软件工程师Peter发起,现正免费且开放源码。内容涵盖transformers的关键概念、实践练习和学术论文剖析。通过YouTube视频讲解和Jupyter笔记本实操,深入学习编码器-解码器架构、自注意力、多头注意力等核心概念,并从零开始构建简单的transformer模型。亦包含如何微调BERT和GPT-2等预训练模型及进行特定任务处理和文本生成。
OFA - 多任务优化的跨模态序列到序列预训练模型
GithubOFA图像字幕多模态开源项目文本生成预训练模型
OFA是一个支持中文和英文的序列到序列预训练模型,整合了跨模态、视觉和语言任务,支持微调和提示调优。其应用包括图像描述、视觉问答、视觉定位、文本生成和图像分类等。项目提供了详细的预训练和微调步骤、检查点和代码示例,以及在Hugging Face和ModelScope上的在线演示和Colab笔记本下载。欢迎社区参与改进和开发。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号