#mBART-50
mbart-large-50-one-to-many-mmt - 多语言机器翻译工具,支持从英语到49种语言的转换
神经网络Huggingface翻译模型mBART-50模型Github开源项目机器翻译多语言
模型基于mBART-large-50,专注于多语言机器翻译任务。其为英语翻译至49种语言提供支持,包括中文、西班牙语、法语等,翻译过程中会强制目标语言ID为首个生成标记。适用于处理大量跨语言文本的场景,提升翻译灵活性与多样性。
mbart-large-50-many-to-one-mmt - 支持50种语言直接互译的多语言机器翻译模型
多语言机器翻译模型mBART-50神经网络模型GithubHugging FaceHuggingface开源项目自然语言处理
mbart-large-50-many-to-one-mmt是一个基于mBART-large-50微调的多语言机器翻译模型,支持50种语言之间的直接互译。该模型无需中间语言,使用简单,只需几行代码即可实现翻译。它在处理低资源语言和长文本方面表现优异,适用于跨语言交流和全球化业务场景。模型覆盖多个语系,包括印欧、亚非和阿尔泰语系等,为用户提供全面的多语言翻译解决方案。
mbart-large-50 - 面向多语言翻译的序列到序列神经网络模型
机器翻译开源项目mBART-50预训练模型模型GithubHuggingface序列到序列模型多语言翻译
mBART-50模型支持50种语言间的互译,基于序列到序列架构开发。该模型通过降噪预训练方法提升性能,包含句子重排和文本掩码等创新技术。作为mBART的扩展版本,覆盖英语、中文、日语在内的主要语言,可用于各类多语言自然语言处理任务。