热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ArmoRM
RLHF-Reward-Modeling
该项目专注于通过顺序拒绝采样微调和迭代DPO方法进行奖励和偏好模型训练,提供包括ArmoRM、Pair Preference Model和Bradley-Terry Reward Model在内的多种开源模型,并在RewardBench排行榜中表现显著。项目内容涵盖奖励建模、模型架构、数据集准备和评估结果,适用于基于DRL的RLHF及多项学术研究。
SimPO
SimPO是一个无需参考模型的简化偏好优化算法,表现优于AlpacaEval 2、MT-Bench和Arena-Hard等多个基准。2024年7月更新发布的SimPO模型通过微调Google的gemma-2 9B模型,达成了72.4% AlapcaEval 2 LC胜率和59.1% Arena-Hard胜率。更多详情、训练脚本和数据生成脚本请访问SimPO的GitHub仓库。
相关文章
RLHF:人类反馈强化学习的原理与应用
2 个月前
SimPO:一种简单而高效的无参考奖励偏好优化方法
2 个月前
RLHF-Reward-Modeling 学习资料汇总 - 训练RLHF奖励模型的开源工具包
1 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号