AlphaMonarch-7B 项目介绍
AlphaMonarch-7B 是一个融合多个顶级模型优点的语言模型,提升了推理能力并显著增强了对话能力。这款 7B 参数模型代表了优秀传统与创新结合的成果。
项目背景
AlphaMonarch-7B 是基于 mlabonne/NeuralMonarch-7B 模型,通过 DPO(差分隐私优化)微调改进而成,并使用来自 Argilla 的 OpenHermes2.5-dpo-binarized-alpha 数据集进行偏好微调。该模型通过 LazyMergekit 工具整合了以下模型的优点:
- OmniTruthyBeagle-7B-v0
- NeuBeagle-7B
- NeuralOmniBeagle-7B
特别感谢 Jon Durbin、Intel、Argilla 和 Teknium 提供的偏好数据集。
应用领域
AlphaMonarch-7B 支持应用于多种场景,如对话、角色扮演(RP)和故事创作。其严谨的推理能力加上灵活的对话能力,使其成为7B模型中的佼佼者。用户可以根据自己的需求,通过调整提示语来改变模型的文风。
量化模型
感谢 LoneStriker 提供的 GPTQ、AWQ 和 EXL2 型号量化版本。以下是相关链接:
- GGUF: AlphaMonarch-7B-GGUF
- GPTQ: AlphaMonarch-7B-GPTQ
- AWQ: AlphaMonarch-7B-AWQ
- mlx: AlphaMonarch-7B-mlx
性能评估
AlphaMonarch-7B 在多个基准测试中表现优异。具体测试结果如下:
- AI2推理挑战(25-Shot):标准化准确率 73.04%
- HellaSwag(10-Shot):标准化准确率 89.18%
- MMLU(5-Shot):准确率 64.4%
- TruthfulQA(0-Shot):准确率 77.91%
- Winogrande(5-Shot):准确率 84.69%
- GSM8k(5-Shot):准确率 66.72%
使用方法
用户可以通过 Python 函数调用,以便简便地集成这个模型:
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "mlabonne/AlphaMonarch-7B"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
AlphaMonarch-7B 通过敏捷开发、深度优化,以及数以千计的数据样本调配推动了人工智能语言模型领域的发展,为各类语言处理任务提供了强有力的支持。