#机器翻译
opus-mt-en-ar - 英语到阿拉伯语的开源神经机器翻译模型
模型Tatoeba阿拉伯语机器翻译Github英语开源项目HuggingfaceOPUS
opus-mt-en-ar是Helsinki-NLP团队开发的英语到阿拉伯语翻译模型。这个基于Transformer的模型支持包括现代标准阿拉伯语在内的多种阿拉伯语变体,使用SentencePiece进行分词,并要求输入特定的语言标记。在Tatoeba测试集上,模型获得了14.0的BLEU分数和0.437的chrF值,显示了其在英阿翻译任务上的性能。
opus-mt-tc-big-tr-en - OPUS-MT 项目开源的土耳其语-英语神经机器翻译模型
模型机器翻译英语开源项目Huggingface土耳其语OPUS-MTtransformerGithub
opus-mt-tc-big-tr-en 是 OPUS-MT 项目开发的土耳其语到英语神经机器翻译模型。该模型基于 Marian NMT 框架训练,并转换为 PyTorch 格式以兼容 Hugging Face transformers 库。在多个测试集上表现优异,Tatoeba 测试集上 BLEU 分数达 57.6。模型采用 transformer-big 架构,使用 OPUS 和 Tatoeba Challenge 数据训练,为研究人员和开发者提供了高质量的开源翻译工具。
fugumt-en-ja - 开源英日机器翻译模型 基于Marian-NMT技术
机器翻译HuggingfaceMarian-NMT模型TransformersFuguMTGithub开源项目自然语言处理
FuguMT是一个开源的英日机器翻译模型,基于Marian-NMT技术开发。该模型集成了transformers和sentencepiece库,支持单句和多句翻译功能。在Tatoeba测试集上,FuguMT的BLEU评分达到32.7。用户可通过简单的Python代码调用模型,实现英日文本的快速翻译。
translation-model-opus - Helsinki-NLP团队开发的英西翻译模型 基于OPUS数据集
模型西班牙语机器翻译英语开源项目HuggingfaceOPUSTatoebaGithub
Helsinki-NLP团队基于transformer架构和OPUS数据集开发了这个英语到西班牙语的翻译模型。模型在多个新闻测试集上BLEU得分达30-39,Tatoeba测试集更高达54.9。采用normalization和SentencePiece预处理技术,为英西文本翻译需求提供了高质量的开源解决方案。
opus-mt-en-bg - 英语到保加利亚语的开源神经机器翻译模型
模型Tatoeba机器翻译Github保加利亚语英语开源项目HuggingfaceOPUS
opus-mt-en-bg是一个基于Transformer架构的英语到保加利亚语机器翻译模型。该模型在Tatoeba测试集上达到50.6的BLEU分数和0.680的chrF值。它使用SentencePiece进行预处理,支持保加利亚语的拉丁字母变体,需要添加目标语言标记。这个模型是Helsinki-NLP开发的Tatoeba-Challenge项目的一部分,为英语到保加利亚语的翻译提供了开源解决方案。模型采用了normalization和SentencePiece (spm32k,spm32k)预处理方法,需要在句子开头添加'>>id<<'形式的目标语言标记。用户可以下载原始权重、测试集翻译和评分结果。该项目遵循Apache-2.0许可协议,为研究人员和开发者提供了可靠的英语到保加利亚语机器翻译资源。
opus-mt-tr-en - 基于OPUS数据集的土耳其语英语机器翻译模型
语言模型机器翻译HuggingfaceOPUS-MT模型数据集Github开源项目BLEU评分
opus-mt-tr-en是一个基于Transformer架构的土耳其语到英语机器翻译模型。该模型使用OPUS数据集训练,通过normalization和SentencePiece进行预处理。在多个测试集上表现优异,Tatoeba测试集上的BLEU分数达63.5。模型权重可供下载,便于研究人员和开发者进行评估和应用。
opus-mt-tc-big-en-tr - OPUS-MT项目开发的英土双语神经机器翻译模型
模型英语到土耳其语机器翻译Marian NMT开源项目Huggingface神经网络模型OPUS-MTGithub
opus-mt-tc-big-en-tr是OPUS-MT项目开发的英语到土耳其语神经机器翻译模型。该模型基于Transformer架构,在多个数据集上表现出色,最高BLEU分数达42.3。模型支持通过Hugging Face Transformers库使用,为英土翻译提供了可靠的解决方案。OPUS-MT项目旨在为全球多种语言对开发开源的神经机器翻译模型。
opus-mt-ja-en - 基于OPUS数据集的日英神经机器翻译模型
模型日英翻译Github机器翻译开源项目语言模型Huggingfaceopus-mt-ja-en自然语言处理
该模型采用transformer-align架构,基于OPUS多语言平行语料库训练而成。预处理阶段使用了文本标准化和SentencePiece分词技术。在Tatoeba日英翻译测试集上,模型展现了优秀的性能,BLEU得分为41.7,chr-F得分为0.589。项目开源了模型权重和测试集译文,便于进行进一步的研究和应用。
nllb-200-distilled-1.3B - NLLB-200蒸馏模型实现200种语言间高效翻译
NLLB-200模型多语言机器翻译低资源语言Github研究模型Huggingface开源项目
nllb-200-distilled-1.3B是一个蒸馏自NLLB-200的1.3B参数多语言翻译模型,支持200种语言间的翻译。该模型专注于低资源语言的机器翻译研究,在Flores-200数据集上经过BLEU、spBLEU和chrF++等指标评估。它主要用于单句翻译,不适合特定领域文本或长文档。研究人员可通过Fairseq代码库获取使用指南和训练代码。模型仅供研究使用,不适合生产环境部署。
opus-mt-en-id - 英语至印尼语开源神经机器翻译模型
模型Github机器翻译开源项目Huggingface数据集opus-mt-en-id自然语言处理模型评估
opus-mt-en-id是一个开源的英语到印尼语神经机器翻译模型,基于Transformer架构设计。该模型使用OPUS数据集训练,经过normalization和SentencePiece预处理。在Tatoeba测试集上,模型达到38.3 BLEU分和0.636 chr-F分的性能。项目提供预训练权重和测试集,方便研究人员进行评估和应用。
opus-mt-vi-en - 基于Transformer架构的越南语英语双向翻译模型
模型English机器翻译Tatoeba-ChallengeVietnameseGithub开源项目HuggingfaceOPUS
opus-mt-vi-en是一个基于transformer-align架构的越南语-英语机器翻译模型。该模型在Tatoeba测试集上实现了42.8的BLEU分数和0.608的chrF分数。模型采用normalization和SentencePiece进行预处理,支持越南语和英语间的双向翻译。用户可通过官方链接获取模型权重和测试数据集。
opus-mt-pl-en - 基于OPUS数据集的波兰语-英语机器翻译模型
模型机器翻译opus-mt-pl-enBLEU评分波兰语Github英语Huggingface开源项目
opus-mt-pl-en项目提供了模型权重下载、测试集翻译结果和评分文件。该模型采用transformer-align架构,专注于波兰语到英语的翻译。在Tatoeba测试集上,模型展现了优秀的性能,BLEU得分为54.9,chr-F得分为0.701。项目使用OPUS数据集训练,并应用了规范化和SentencePiece预处理技术,为波兰语-英语机器翻译研究和应用提供了有价值的资源。
opus-mt-en-nl - 基于OPUS数据集的英荷双语机器翻译模型
Transformer机器翻译HuggingfaceOPUS-MT模型Github英语到荷兰语开源项目BLEU评分
opus-mt-en-nl是一个英语到荷兰语的机器翻译模型,基于transformer-align架构构建。该模型利用OPUS数据集训练,并应用了normalization和SentencePiece预处理技术。在Tatoeba测试集上,模型达到了57.1的BLEU分数和0.730的chr-F分数,显示出较高的翻译质量。模型提供了原始权重和测试集翻译结果的下载,方便研究者进行评估和应用。
metricx-23-qe-xl-v2p0 - Google开发的无参考机器翻译质量评估模型
机器翻译MetricX-23Huggingface模型评估模型Github开源项目谷歌NLP
MetricX-23-QE-XL-V2P0是一款无需参考翻译的机器翻译质量评估模型。该模型由Google开发,基于mT5架构微调而成,能准确预测翻译质量得分。在WMT'23指标共享任务中表现优异,适用于评估多语言对的翻译质量。通过合成数据训练,MetricX-23-QE-XL-V2P0增强了对各种翻译缺陷的识别能力,代表了机器翻译质量评估技术的重要进展。
fugumt-ja-en - 高性能日英神经机器翻译模型
日英翻译transformers机器翻译Marian-NMTHuggingface模型FuguMTGithub开源项目
FuguMT是一个开源的日英神经机器翻译模型,基于Marian-NMT框架开发。该模型集成了transformers和sentencepiece技术,支持通过简洁的Python代码实现高效翻译。在Tatoeba测试集上,FuguMT展现出优秀的性能,BLEU评分达到39.1。这一成果表明,FuguMT在处理多样化的文本类型时,能够提供准确可靠的翻译结果。
opus-mt-en-hu - 基于Transformer的英匈双语机器翻译模型
模型Github机器翻译opus-mt-en-hu开源项目Huggingfacetransformer自然语言处理BLEU评分
opus-mt-en-hu是一个英语到匈牙利语的机器翻译模型,采用Transformer架构设计。该模型基于OPUS数据集训练,应用了normalization和SentencePiece预处理技术。在Tatoeba测试集上,模型实现了40.1的BLEU分数和0.628的chr-F分数,表现出良好的翻译能力。模型提供了原始权重和测试集翻译结果供下载,便于进行评估和实际应用。
opus-mt-mul-en - Transformer架构的多语种英语神经机器翻译模型
模型BLEU评分机器翻译Github语言对开源项目HuggingfaceOPUS多语言模型
opus-mt-mul-en是基于Transformer架构的多语种到英语神经机器翻译模型。该模型支持200多种语言翻译为英语,覆盖范围广泛。在多个标准测试集上表现优异,尤其擅长欧洲语言翻译。模型采用SentencePiece分词技术,能够处理低资源语言,是一款功能强大的通用多语言翻译工具。
opus-mt-fi-en - 芬兰语-英语机器翻译的开源transformer模型
模型机器翻译Tatoeba-Challenge开源项目HuggingfaceFinnishOPUSGithubEnglish
opus-mt-fi-en是一个基于transformer-align架构的芬兰语到英语翻译模型。该模型在多个新闻测试集上展现了优秀性能,BLEU评分最高达32.3。模型采用SentencePiece进行预处理,并在Tatoeba测试集上获得53.4的BLEU分数和0.697的chrF分数。这个开源项目为需要芬兰语到英语高质量翻译的应用场景提供了有力支持。
opus-mt-en-fi - 开源神经机器翻译模型实现英语到芬兰语的准确转换
语言模型机器翻译HuggingfaceOPUS-MT模型Github开源项目英语到芬兰语BLEU评分
opus-mt-en-fi是一个开源的英语到芬兰语翻译模型,基于transformer架构。该模型使用OPUS数据集和bt-news数据进行训练,采用normalization和SentencePiece进行预处理。在newstest2019-enfi测试集上,模型实现了25.7的BLEU分数和0.578的chr-F分数,显示出较高的翻译准确度。模型提供原始权重下载和测试集翻译结果,方便研究者和开发者使用和评估。
opus-mt-en-ca - transformer-align架构的英语-加泰罗尼亚语机器翻译模型
模型BLEU评分机器翻译Github模型评估语言对opus-mt-en-ca开源项目Huggingface
opus-mt-en-ca是基于transformer-align架构的英语-加泰罗尼亚语机器翻译模型。该模型利用OPUS数据集训练,经过normalization和SentencePiece预处理。在Tatoeba测试集上,模型达到47.2的BLEU分数和0.665的chr-F分数。模型采用Apache-2.0开源许可证,支持从英语翻译到加泰罗尼亚语。提供原始权重和测试集译文下载,方便评估模型性能和进行深入分析。
opus-mt-en-da - 基于OPUS数据集的英丹双语机器翻译模型
模型机器翻译Github模型评估BLEUopus-mt-en-da开源项目Huggingface数据集
opus-mt-en-da是一个英语到丹麦语的机器翻译模型,基于transformer-align架构设计。该模型利用OPUS数据集训练,应用了normalization和SentencePiece预处理技术。在Tatoeba测试集上,模型展现出优秀的翻译性能,BLEU分数达60.4,chr-F分数为0.745。模型提供原始权重下载,便于研究者进行深入探索和实际应用。
opus-mt-da-en - 基于Transformer架构的丹麦语-英语神经机器翻译模型
模型transformer-alignOPUS-MT机器翻译Github丹麦语英语Huggingface开源项目
opus-mt-da-en是一个丹麦语到英语的神经机器翻译模型,基于transformer-align架构。该模型使用OPUS数据集训练,应用了归一化和SentencePiece预处理技术。在Tatoeba测试集上,模型获得了63.6的BLEU分数和0.769的chr-F分数,显示出良好的翻译效果。模型提供预训练权重下载,可用于丹麦语到英语的翻译任务。
opus-mt-hi-en - 基于OPUS数据集的印地语-英语开源机器翻译模型
语言模型机器翻译Huggingface模型数据集Github开源项目opus-mt-hi-enBLEU评分
opus-mt-hi-en是一个开源的印地语到英语机器翻译模型,基于transformer-align架构构建。该模型使用OPUS数据集训练,采用规范化和SentencePiece进行预处理。在Tatoeba测试集上,模型达到40.4的BLEU分数。项目提供预训练权重下载,便于用户部署和使用。此外,模型还在newsdev2014和newstest2014等测试集上进行了评估,为研究人员提供了性能参考。
opus-mt-uk-en - 乌克兰语至英语的开源神经机器翻译模型
transformer-align机器翻译HuggingfaceOPUS英语模型Github开源项目乌克兰语
opus-mt-uk-en是一个开源的乌克兰语到英语神经机器翻译模型,基于transformer-align架构开发。该模型使用OPUS数据集训练,经过normalization和SentencePiece预处理。在Tatoeba测试集上,模型达到了64.1的BLEU分数和0.757的chr-F分数,显示出良好的翻译效果。研究者可以下载预训练权重和测试集结果进行进一步评估和应用。
opus-mt-en-hi - 开源英语-印地语Transformer机器翻译模型
机器翻译HuggingfaceOPUS英语模型印地语Github开源项目Tatoeba-Challenge
opus-mt-en-hi是OPUS项目开发的英语到印地语机器翻译模型,基于Transformer架构。模型在Tatoeba测试集上获得16.1 BLEU分数和0.447 chrF分数。它采用SentencePiece进行预处理,适用于多种翻译任务。作为开源资源,该模型为自然语言处理研究和应用开发提供了有价值的工具。
opus-mt-ko-en - 基于transformer-align的开源韩英机器翻译模型
transformer-align机器翻译HuggingfaceOPUS模型韩英翻译TatoebaGithub开源项目
opus-mt-ko-en是一个开源的韩英机器翻译模型,采用transformer-align架构。模型在Tatoeba测试集上获得41.3 BLEU分数和0.588 chrF分数。它支持韩语(包括谚文、拉丁文和汉字)到英语的翻译,使用normalization和SentencePiece进行预处理。该项目提供模型权重、测试集翻译结果和评估数据,可用于研究和实际应用。
opus-mt-sv-en - 基于OPUS数据集的瑞典语-英语神经机器翻译模型
机器翻译HuggingfaceOPUS-MT模型英语瑞典语Github开源项目BLEU评分
opus-mt-sv-en是一个瑞典语到英语的神经机器翻译模型,基于transformer-align架构构建。该模型使用OPUS数据集训练,经过normalization和SentencePiece预处理。在Tatoeba测试集上,模型达到64.5 BLEU分数和0.763 chr-F分数,显示出较高的翻译质量。项目开源了预训练权重、测试集翻译结果和评估数据,便于研究者复现和评估模型性能。
t5-small - T5架构的轻量级多语言文本转换模型
机器翻译Huggingface模型Github开源项目自然语言处理文本摘要ONNX格式T5模型
t5-small是基于T5架构的轻量级多语言文本处理模型。该模型采用编码器-解码器结构,通过多任务预训练增强了迁移学习能力。支持英语、法语、罗马尼亚语和德语等语言,适用于文本摘要和翻译等任务。模型已导出为ONNX格式,便于跨平台部署。开发者可通过Transformers库调用t5-small进行多种自然语言处理任务。
opus-mt-en-gl - 英语到加利西亚语机器翻译模型 基于OPUS数据集
语言模型模型opus-mt-en-gl机器翻译BLEU评分Github开源项目Huggingface数据集
opus-mt-en-gl是一个开源的英语到加利西亚语机器翻译模型。该模型采用transformer-align架构,基于OPUS数据集训练,使用normalization和SentencePiece进行预处理。在Tatoeba测试集上,模型达到36.4的BLEU得分和0.572的chr-F值,表现出较好的翻译质量。这个模型为英语到加利西亚语的翻译任务提供了一个有效的工具。
mt5-small-parsinlu-opus-translation_fa_en - 基于mT5的波斯语至英语机器翻译模型
模型Persian机器翻译ParsiNLU开源项目HuggingfaceMT5模型GithubEnglish
该开源项目提供了一个基于mT5的波斯语至英语机器翻译模型。模型利用MT5ForConditionalGeneration和MT5Tokenizer实现翻译功能,并附有Python代码示例说明使用方法。支持宗教语句、日常对话和技术内容等多种文本类型的翻译。作为parsinlu项目的组成部分,此模型为有波斯语-英语翻译需求的用户提供了实用工具。
opus-mt-en-it - 基于Transformer的英意机器翻译模型
模型机器翻译开源项目Huggingface英语到意大利语OPUS-MTGithubtransformer模型BLEU评分
opus-mt-en-it是一个基于Transformer架构的英语到意大利语机器翻译模型。该模型使用OPUS数据集训练,经过normalization和SentencePiece预处理。在多个测试集上表现优异,其中Tatoeba测试集达到48.2 BLEU分和0.695 chr-F分。模型提供预训练权重下载和评估结果查看,可用于英意翻译任务。
NADI2024-baseline - 多标签阿拉伯方言识别模型,提高文本分类的准确性
机器翻译阿拉伯方言识别开源项目模型NADI-2024-baseline多标签分类HuggingfaceMarBERTv2Github
该项目提供了一个基于BERT模型的多标签阿拉伯方言识别工具,通过微调多个数据集实现国家级方言识别。模型使用MarBERTv2作为基础,能够实现多标签预测,提高文本中多个方言的识别精度,为阿拉伯语自然语言处理提供良好的基础和测试平台,涵盖18个国家的方言。
opus-mt-tc-big-en-pt - 从英译葡的先进神经机器翻译模型
Github开源项目模型HuggingfaceMarian NMT机器翻译神经机器翻译句子标记OPUS-MT
该开源项目提供的神经机器翻译模型,旨在高效地将英语翻译为葡萄牙语。作为OPUS-MT项目的一部分,模型采用Marian NMT框架训练,并转化到PyTorch以兼容Transformers库。利用flores101-devtest等高质量数据集进行训练与评估,提供多语言目标支持,可应用于多种翻译场景。通过简单的Python示例代码,用户可以快速上手执行翻译任务。项目获得了欧盟资助,并得到了CSC -- IT Center for Science的支持。
ALMA-13B-Pretrain - 改进大型语言模型的翻译性能与偏好优化技术
ALMALoRA微调对比偏好优化机器翻译HuggingfaceGithub开源项目模型数据集
ALMA基于新的翻译模型范式,初步在单语数据上进行精调,接着应用高质量的平行数据进行优化,从而显著提升大型语言模型的翻译效果。其最新版本ALMA-R采用了对比偏好优化(CPO),相较于传统监督精调,进一步提高了翻译的精度,可与GPT-4媲美。尤其是ALMA-13B-LoRA,通过过渡性精调和人类撰写的平行数据,确保了在专业翻译任务中的卓越表现。
opus-mt-en-sv - 基于Transformer的英瑞双语神经机器翻译模型
语言模型opus-mt-en-svHuggingface开源项目模型BLEU评分机器翻译Githubtransformer
opus-mt-en-sv是一个开源的英语到瑞典语机器翻译模型,基于Transformer架构开发。该模型在Tatoeba测试集上实现60.1的BLEU分数和0.736的chr-F分数,展示了优秀的翻译质量。模型训练采用OPUS数据集,并应用normalization和SentencePiece进行预处理,旨在提供准确的英瑞双语文本转换。
opus-mt-eo-en - 准确的跨语言翻译引擎,支持世界语到英语的转换
Huggingface模型BLEU评分开源项目Githubopus-mt-eo-en机器翻译数据集
该项目专注于世界语到英语的翻译,使用transformer-align模型进行处理,结合SentencePiece和数据规范化。其在Tatoeba数据集上达到了54.8的BLEU分数,展示了出色的翻译能力。用户可以获取模型的详细资源,如下载原始权重和查看测试结果及评估分数,为跨语言交流提供有效支持。
相关文章