#RewardBench
RLHF-Reward-Modeling - 训练 RLHF 奖励模型的配方
Github开源项目RLHFArmoRMRewardBenchBradley-Terry Reward Modelpair-preference model
该项目专注于通过顺序拒绝采样微调和迭代DPO方法进行奖励和偏好模型训练,提供包括ArmoRM、Pair Preference Model和Bradley-Terry Reward Model在内的多种开源模型,并在RewardBench排行榜中表现显著。项目内容涵盖奖励建模、模型架构、数据集准备和评估结果,适用于基于DRL的RLHF及多项学术研究。
reward-bench - 用于评估使用如Starling、PairRM、OpenAssistant和DPO等算法的奖励模型的能力和安全性的基准工具
Github开源项目数据集RewardBench评价标准文献anymodel
RewardBench是一款基准工具,用于评估使用如Starling、PairRM、OpenAssistant和DPO等算法的奖励模型的能力和安全性。该工具提供通用的推理代码、统一的数据集格式和测试,以确保公平评估,并拥有强大的分析与可视化功能。用户可以通过pip快速安装并运行评估脚本,测试各种奖励模型的性能和偏好集。
相关文章