项目简介
dolphin-2.2.1-mistral-7b 是一个基于 Mistral-7B 的机器学习模型,旨在提供更加人性化的对话和高效的互动体验。这个项目标识符中的"2.2.1"版本,是对模型进行调整和改进的结果,特别是为了解决过拟合的问题。这一版本由风险投资公司 a16z 赞助。
模型特性
这一模型包罗了一些显著的新特性:
-
会话和共情能力:得益于Samantha基因的注入,Dolphin 2.2在此版本中能够提供个性化建议,并关注用户的情感需求。同时,它也在多轮对话方面进行了额外的训练。
-
数据集优化:开发者对数据集进行了无审查处理,删除重复内容,提升了数据质量。引入了Jon Durbin的Airoboros数据集以增强创意,同时增加WizardLM和Samantha的一部分数据以提升多轮对话能力和共情能力。
-
许可及使用建议:采用Apache-2.0许可证,使其适用于商业和非商业用途。开发者建议在公开使用该模型时,应自行添加对齐层来确保内容合规。
数据集及训练
该模型的数据集主要基于开放源码的Dolphin,实现来自微软的Orca。为提升模型表现,开发者将数据进行了去偏见处理。
训练过程在4台A100显卡上进行了4轮,耗时48小时。训练中使用了ChatML 提示格式。
训练超参数
训练时的主要超参数如下:
- 学习率:6e-06
- 训练批次大小:5
- 评价批次大小:5
- 随机种子:42
- 设备数:4个多GPU
- 梯度累积步数:4
- 总训练批次大小:80
- 总评价批次大小:20
- 优化器:Adam(betas=(0.9,0.95), epsilon=1e-05)
- 学习率调度类型:余弦
- 学习率调度预热步数:100
- 训练轮数:4
感谢
完成此模型离不开多方支持:
- 特别感谢 a16z 的慷慨赞助。
- 谢谢微软撰写的Orca论文,为此次工作带来启发。
- 特别感谢 Wing Lian 和 TheBloke 的宝贵建议。
- 感谢 Open Source AI 社区中的所有成员对项目的指导和帮助。
示例输出
dolphin-2.2.1-mistral-7b 模型是一个强大的工具,能够用于多种对话场景和应用,它的发布标志着对话AI领域中更高效、更加人性化的交互方式。使用此模型需负责地对待其输出,特别是在公开服务时请作出必要的调整和监测。