#偏好优化

alignment-handbook - 提升人工智能与人类偏好一致性的先进训练方法
Github开源项目语言模型AI偏好对齐持续预训练监督微调偏好优化热门
《Alignment Handbook》为ML社区提供了一系列全面的训练配方,专注于通过人工反馈强化学习(RLHF)等技术,继续训练和调整语言模型,以匹配人类和AI的偏好。该手册包括从数据收集、模型训练到绩效评估的完整流程,以及最新的训练代码和数据集,旨在帮助研究人员和开发人员构建更安全、更有效的AI系统。
direct-preference-optimization - DPO算法实现语言模型的偏好数据优化
Github开源项目机器学习语言模型偏好优化DPO训练算法
DPO(Direct Preference Optimization)是一种语言模型训练算法,通过偏好数据优化模型。该项目提供DPO算法的参考实现,包含监督微调和基于偏好学习两个阶段。支持各种因果HuggingFace模型,可添加自定义数据集,并包括'conservative' DPO和IPO等变体。这为研究人员提供了灵活工具,用于从偏好数据训练语言模型。
gemma-2-9b-it-SimPO - 基于SimPO算法的Gemma模型性能提升
Github开源项目大语言模型模型微调偏好优化模型GemmaHuggingfaceSimPO
该项目基于Google的Gemma-2-9b-it模型,采用创新的SimPO算法在UltraFeedback数据集上进行微调。SimPO通过对齐奖励函数和生成概率,优化大型语言模型性能,无需参考模型。优化后的模型在多项评估指标上表现优异,尤其是对话能力和生成质量方面。项目提供了详细的模型信息、训练细节和评估结果,为相关研究和应用奠定基础。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号