Notus-7b-v1项目介绍
项目背景
Notus-7b-v1是一个经过精细调整的语言模型系列,它使用了直接偏好优化(DPO)和相关的强化学习与人类反馈(RLHF)技术。这一模型是まず一版本,是在zephyr-7b-sft-full
基础上通过DPO技术精细调整而成。Notus-7B-v1与Zephyr-7B-beta的主要区别在于偏好数据集的使用。
数据集与训练过程
在开发Notus-7b-v1时,团队投入了大量时间研究UltraFeedback数据集。使用Argilla工具,开发团队发现原始数据集中存在一些问题,例如较差的响应却获得高评分。经过对数百个数据点的校正,团队二值化了数据集以偏好评级替代最初的整体评分,此举找到了相较于原数据集约50%不同的选择响应。
模型性能与评估
Notus模型的性能通过对话式应用中的不同基准进行评测,比如Chat(MT-Bench、AlpacaEval)和学术(Open LLM Leaderboard)基准以直接与其他7B模型进行对比。在多个评估中Notus表现优异,包括在AlpacaEval中的胜率超过Zephyr-7B-beta和Claude 2。
评测基准结果
- AlpacaEval:Notus的胜率达到91.42%,超过Zephyr-7B-beta和Claude 2。
- 学术评测:在OpenLLM Leaderboard上,Notus在多个任务中表现优于Zephyr 7B dDPO。
使用与授权
Notus-7b-v1主要用于对话助理类应用,开发团队提供了基于该模型的使用示例,其许可证为MIT,使其成为一个开放且可商用的项目。
模型详情
- 开发团队:Argilla团队
- 语言:主要为英语
- 授权:MIT许可证
- 基础模型:
alignment-handbook/zephyr-7b-sft-full
项目亮点
Notus的名字来源于古希腊南风之神,与Zephyr(西风之神)形成对应。这象征着Notus模型顺应新风潮,以数据驱动的方式为用户提供更加精准的自然语言处理服务。
未来计划
虽然目前Notus已经显示出强大的能力,但在未来,团队将继续优化数据集,比较分析使用评观点数和偏好评级的效果,并期待通过持续的改进给予用户臂更佳的体验。
重要提示:在优化过程中发现TruthfulQA数据集的提示可能影响真实性评估结果,未来版本将调整训练数据以提升模型的精确度。