#Suzume ORPO
suzume-llama-3-8B-multilingual-orpo-borda-top25 - 提升多语言模型性能的ORPO微调方法
Github开源项目多语言模型Huggingface模型性能训练数据商业用途Suzume ORPO
Suzume ORPO使用ORPO技术优化模型性能,特别加强了多种语言的处理能力,是语言模型研究的前沿选择。非商业许可适合学术研究,商业应用版本正在开发中。
suzume-llama-3-8B-multilingual-orpo-borda-half - 多语言性能优化,基于lightblue模型的ORPO改进
Github开源项目模型数据集模型优化Huggingface评估结果多语言模型Suzume ORPO
该项目通过ORPO方法对lightblue基础模型进行微调,提升多种语言的自然语言处理能力。模型优化使用了lightblue/mitsu数据集的重要响应。在MT-Bench测试中,这些ORPO模型比基础模型在多个语言中表现更好,预计将来会有商用版本推出。
suzume-llama-3-8B-multilingual-orpo-borda-top75 - 多语言模型的ORPO方法微调及性能评估
Github开源项目模型数据集训练评估HuggingfaceSuzume ORPO
该项目采用ORPO方法对多语言模型进行微调,使用lightblue/mitsu数据集进行训练,取得了显著的性能提升。推荐的最佳模型版本在多种语言的评测得分均超过基础模型和其他对比模型。研究团队正在开发新的商用版本,旨在未来为商业应用提供支持。