#ArmoRM
RLHF-Reward-Modeling 学习资料汇总 - 训练RLHF奖励模型的开源工具包
2 个月前
RLHF:人类反馈强化学习的原理与应用
3 个月前
相关项目
RLHF-Reward-Modeling
该项目专注于通过顺序拒绝采样微调和迭代DPO方法进行奖励和偏好模型训练,提供包括ArmoRM、Pair Preference Model和Bradley-Terry Reward Model在内的多种开源模型,并在RewardBench排行榜中表现显著。项目内容涵盖奖励建模、模型架构、数据集准备和评估结果,适用于基于DRL的RLHF及多项学术研究。
SimPO
SimPO是一个无需参考模型的简化偏好优化算法,表现优于AlpacaEval 2、MT-Bench和Arena-Hard等多个基准。2024年7月更新发布的SimPO模型通过微调Google的gemma-2 9B模型,达成了72.4% AlapcaEval 2 LC胜率和59.1% Arena-Hard胜率。更多详情、训练脚本和数据生成脚本请访问SimPO的GitHub仓库。
ArmoRM-Llama3-8B-v0.1
该项目介绍了一种名为ArmoRM-Llama3-8B-v0.1的多目标奖励模型,通过专家混合(MoE)方法提升AI在多任务环境中的决策准确性。ArmoRM模型在性能榜中表现突出,特别是在聊天、复杂推理和安全性领域的评分名列前茅。模型通过对大量数据进行细致训练,旨在减少冗长偏差,并利用奖励转换矩阵优化结果。项目为AI和机器学习研究者提供了易用的代码示例和操作流程,展示如何结合多目标系数实现线性偏好评分,提供了一种高效、灵活的方法以调整语言模型的响应特征和优先级。