项目介绍:dolphin-2.7-mixtral-8x7b
背景与概述
dolphin-2.7-mixtral-8x7b 是一个基于 Dolphin-2.5/2.6 的重训练版本,致力于通过改进 transformers 库中的一些问题及解冻门层来提升性能。该模型由 Convai 赞助开发,瞄准更高的代码生成和执行能力。模型采用 Mixtral-8x7b 作为基础,并通过大量的编程数据进行了强化训练。在未进行 DPO 调优的情况下,模型表现出很高的服从性,因此仍需在系统提示中给予一定的引导。
数据集与模型特点
模型训练使用了多种数据集,包括 but not limited to cognitivecomputations/dolphin、jondurbin/airoboros-2.2.1、及 ise-uiuc/Magicoder-OSS-Instruct-75K 等。为了提升对代码的理解和生成能力,模型特别加入了大量代码数据训练。dolphin-2.7 版本在原有 32k 的上下文基础上进行了 16k 的微调。
训练与性能改进
模型的训练持续了大约三天,使用了 4 个 A100 GPU、qLoRA 和 Axolotl 工具框架。为了提升用户交互的友好程度,模型采用了 ChatML 格式的提示技术,确保交互的流畅性与准确性。
在 2.7 版本中,针对 mixtral 的特定问题进行了重新训练,通过解冻门层以期解决性能不佳的问题。而在先前的 2.6 版本中,修复了训练配置的问题,极大地提升了模型质量,同时合并了 samantha 基于同理心的数据,替换了 synthia 和 pure-dove 为 Capybara。
模型的合规性与使用建议
dolphin-2.7-mixtral-8x7b 模型是未审核的,因此在数据集中已进行去偏使其更具合规性。然而,用户被建议在将模型应用为服务之前,增加自定义的对齐层,以避免潜在的合规性问题。模型非常顺从,可能会对不道德的请求进行响应,因此使用者需对生成的内容负责。
模型示例
在实际应用中,dolphin-model 展示了其有效解决复杂问题的能力。例如,通过 Kotlin 代码解决 LeetCode 高难问题“寻找全是 1 的最大子矩阵”,显示了模型在动态规划等复杂算法中的应用潜力。
未来规划
对于 Dolphin 3.0 版本的开发正在进行中,计划包括:
- 增强通用聊天应用场景
- 增强结构化输出
- 增强 Agent 案例,如 Autogen、Memgpt、Functions 等
- 增强角色扮演特性
感谢与致谢
这项开发离不开 Convai 的财务支持及 MistralAI 的培训支持,还要特别感谢所有数据集作者及参与模型培训框架开发的社区成员,他们的贡献使得这个项目迈向成功。
要了解更多信息或支持开发人员,您可以访问此 链接。