Midnight-Rose-70B-v2.0.3项目介绍
项目概述
Midnight-Rose-70B-v2.0.3是一个基于Llama 2的70B参数大语言模型。它是通过复杂的模型合并过程产生的,融合了多个高性能模型的优点。该项目的主要目标是创建一个在角色扮演和讲故事方面表现出色,同时在其他任务上也具有良好能力的大型语言模型。
模型特点
- 无审查:该模型是未经审查的版本,用户需要对使用结果负责。
- 强大的角色扮演能力:专为角色扮演和讲故事设计,在这些任务上表现出色。
- 多样化的能力:虽然重点是角色扮演,但在其他任务上也有良好表现。
- 高度可定制:对提示词和系统指令反应强烈,允许用户根据需求进行调整。
模型构建过程
Midnight-Rose-70B-v2.0.3的构建过程相当复杂,涉及多个组件的合并:
- Component 1(未发布):合并了midnight-rose-70b-v1.0和一个未发布的midnight-rose-70b-v1.4版本。
- Component 2:Wizard-Tulu-Dolphin-70B-v1.0,是WizardLM-70B-V1.0、tulu-2-dpo-70b和修改版dolphin-2.2-70b的合并结果。
- 最终模型:通过SLERP方法合并Component 1和Component 2得到。
这种复杂的合并过程旨在结合各个模型的优点,创造一个既"辛辣"又"聪明"的新模型。
使用建议
采样设置
- 最大上下文长度建议为6144个token。
- 推荐使用二次采样(平滑因子),可以尝试0.2到0.5之间的值。
- 建议使用Min-P采样,可以尝试0.05到0.9之间的值。
- 无需使用高重复惩罚,但模型能够容忍高重复惩罚设置。
提示词技巧
- 提供了一个上下文模板,可以在SillyTavern中使用。
- 建议使用Vicuna指令格式,但其他格式也可以使用。
- 模型对系统提示词反应强烈,建议在last_output_sequence字段中添加最重要的指令。
量化版本
Artefact2提供了该模型的GGUF量化版本,可以在资源受限的环境中使用。
许可和使用限制
该模型继承了Llama 2的许可证,同时还受到Dreamgen/Opus和Tulu的额外限制。建议在私人使用之外的场景中,先咨询律师以了解多个许可证在模型合并中的交叉影响。
模型评估
根据Open LLM Leaderboard的评估结果,Midnight-Rose-70B-v2.0.3在多个任务上表现优秀:
- AI2 Reasoning Challenge (25-Shot): 70.65
- HellaSwag (10-Shot): 87.50
- MMLU (5-Shot): 69.64
- TruthfulQA (0-shot): 65.27
- Winogrande (5-shot): 81.22
- GSM8k (5-shot): 28.35
总体平均分为67.11,显示了该模型在多个领域的强大能力。
这个项目展示了通过复杂的模型合并技术,如何创造出一个在特定任务上表现出色,同时保持广泛能力的大型语言模型。对于那些对高级角色扮演和storytelling感兴趣的用户来说,Midnight-Rose-70B-v2.0.3提供了一个强大而灵活的选择。