#RewardBench
RLHF-Reward-Modeling 学习资料汇总 - 训练RLHF奖励模型的开源工具包
2 个月前
RLHF:人类反馈强化学习的原理与应用
3 个月前
相关项目
RLHF-Reward-Modeling
该项目专注于通过顺序拒绝采样微调和迭代DPO方法进行奖励和偏好模型训练,提供包括ArmoRM、Pair Preference Model和Bradley-Terry Reward Model在内的多种开源模型,并在RewardBench排行榜中表现显著。项目内容涵盖奖励建模、模型架构、数据集准备和评估结果,适用于基于DRL的RLHF及多项学术研究。
reward-bench
RewardBench是一款基准工具,用于评估使用如Starling、PairRM、OpenAssistant和DPO等算法的奖励模型的能力和安全性。该工具提供通用的推理代码、统一的数据集格式和测试,以确保公平评估,并拥有强大的分析与可视化功能。用户可以通过pip快速安装并运行评估脚本,测试各种奖励模型的性能和偏好集。