热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Reward model
Online-RLHF - 在线人类反馈强化学习的开源大规模语言模型指南
Online RLHF
LLaMA3
Huggingface
RLHF model
Reward model
Github
开源项目
本项目详细介绍了如何通过在线迭代性的人类反馈强化学习(RLHF)来对齐大规模语言模型(LLMs)。提供了详细的工作流程和易于复现的步骤,使用开源数据即可实现与LLaMA3-8B-instruct相当或更好的效果。内容包括模型发布、安装说明、数据生成、数据注释和训练步骤,帮助实现高效的在线RLHF训练。
1
1
相关文章
Online-RLHF: 从奖励建模到在线人类反馈强化学习的工作流程
3 个月前
Online-RLHF入门指南 - 面向大型语言模型的在线强化学习项目
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号