#人类反馈
相关项目
PaLM-rlhf-pytorch
本项目实现了基于PaLM架构的强化学习与人类反馈(RLHF),适用于开放环境下的ChatGPT复现。结合了LoRA微调和Flash Attention技术,提供详细的安装和使用指南。加入社区,探索最新的PPO和RL技术进展。
awesome-RLHF
此页面汇集了关于强化学习与人类反馈(RLHF)的最新研究论文,涵盖从基础概念到高级技术,包括大语言模型、视频游戏、机器人和个性化推荐系统等应用。页面将持续更新,跟踪此领域的前沿进展。
hh-rlhf
hh-rlhf项目开源两类数据集:AI助手有用性和安全性的人类偏好数据,以及人工生成的红队测试数据。这些数据集旨在改进AI助手的性能和安全性。数据包含敏感话题,仅供研究使用。项目提供数据格式说明和使用指南,支持AI安全研究。
RLHF-V
RLHF-V框架通过细粒度的人类纠正反馈来优化多模态大语言模型的行为。该项目收集高效的纠正反馈数据,让标注者修正模型回答中的幻觉片段。实验表明,仅需1小时训练即可将基础模型的幻觉率降低34.8%。RLHF-V在Muffin模型上的验证展示了显著的性能提升,有效提高了模型的可信度。