相关项目
alignment-handbook
《Alignment Handbook》为ML社区提供了一系列全面的训练配方,专注于通过人工反馈强化学习(RLHF)等技术,继续训练和调整语言模型,以匹配人类和AI的偏好。该手册包括从数据收集、模型训练到绩效评估的完整流程,以及最新的训练代码和数据集,旨在帮助研究人员和开发人员构建更安全、更有效的AI系统。
direct-preference-optimization
DPO(Direct Preference Optimization)是一种语言模型训练算法,通过偏好数据优化模型。该项目提供DPO算法的参考实现,包含监督微调和基于偏好学习两个阶段。支持各种因果HuggingFace模型,可添加自定义数据集,并包括'conservative' DPO和IPO等变体。这为研究人员提供了灵活工具,用于从偏好数据训练语言模型。
gemma-2-9b-it-SimPO
该项目基于Google的Gemma-2-9b-it模型,采用创新的SimPO算法在UltraFeedback数据集上进行微调。SimPO通过对齐奖励函数和生成概率,优化大型语言模型性能,无需参考模型。优化后的模型在多项评估指标上表现优异,尤其是对话能力和生成质量方面。项目提供了详细的模型信息、训练细节和评估结果,为相关研究和应用奠定基础。