热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ALMA
ALMA-13B-Pretrain - 改进大型语言模型的翻译性能与偏好优化技术
Github
开源项目
模型
数据集
Huggingface
机器翻译
LoRA微调
对比偏好优化
ALMA
ALMA基于新的翻译模型范式,初步在单语数据上进行精调,接着应用高质量的平行数据进行优化,从而显著提升大型语言模型的翻译效果。其最新版本ALMA-R采用了对比偏好优化(CPO),相较于传统监督精调,进一步提高了翻译的精度,可与GPT-4媲美。尤其是ALMA-13B-LoRA,通过过渡性精调和人类撰写的平行数据,确保了在专业翻译任务中的卓越表现。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号