Dolphin-2.9.1-Mixtral-1x22b项目介绍
Dolphin-2.9.1-Mixtral-1x22b是一款强大的语言模型,由Eric Hartford、Lucas Atkins和Fernando Fernandes与认知计算团队共同制作和训练。该项目以Mixtral-8x22b为基础,并受到Apache-2.0许可证的约束。
模型概述
Dolphin-2.9.1基于Dolphin-2.9-Mixtral-8x22b模型开发,拥有64k上下文长度,全重微调时序列长度为16k。使用Crusoe Cloud提供的8xH100硬件,该模型在27小时内完成了全面微调。模型采取SLERP技术和自定义脚本提取单一专家,并融合了Mixtral架构中所有8个专家的特性。
功能特点
Dolphin-2.9.1具备多样的指令、对话和编码能力,并具有初步的代理能力,支持函数调用。为了保证模型的合规性,项目组对数据集进行过滤,以移除偏见和不对齐内容。用户可以在开源的基础上添加自己的对齐层,以确保使用中的安全性。
数据使用和许可
Dolphin项目在Apache 2.0许可证下开放,允许商业及非商业使用,前提是遵守许可证要求。该模型利用GPT-4生成的数据进行训练。具体的专家模型提取过程可以在GitHub仓库中查看:GitHub Repository。
评估方法与结果
模型的训练和评估使用了一整套指标和数据集。包括Cognitive Computations的Dolphin-2.9、Teknium的OpenHermes-2.5及其他多个开放数据集。这些数据集提供了丰富的对话和编程运用场景,确保模型的多方面能力。
模型应用和限制
尽管Dolphin-2.9.1表现出色,但由于其开源和去审查特性,使用者在将其用作服务前应谨慎考量其可能带来的伦理问题和不当使用风险。
训练过程
Dolphin的训练过程包括以下超参数设置:
- 学习率:1e-05
- 训练批次大小:1
- 评估批次大小:1
- 随机种子:42
- 分布式类型:多GPU
- 使用设备数:8
- 梯度累积步数:8
- 总训练批次大小:64
总结
Dolphin-2.9.1-Mixtral-1x22b为开发者提供了一种强大的、可扩展的语言工具。由于其在指令、对话与编码中的应用能力,该模型很适合在教育、科研及生产环境中使用。但用户需对其使用过程中产生的数据和内容负责。通过负责任地使用Dolphin,用户可以充分发挥其潜力。