alignment-handbook
《Alignment Handbook》为ML社区提供了一系列全面的训练配方,专注于通过人工反馈强化学习(RLHF)等技术,继续训练和调整语言模型,以匹配人类和AI的偏好。该手册包括从数据收集、模型训练到绩效评估的完整流程,以及最新的训练代码和数据集,旨在帮助研究人员和开发人员构建更安全、更有效的AI系统。