🐟 模型合并配方的进化优化
🤗 模型 | 👀 演示 | 📚 论文 | 📝 博客 | 🐦 Twitter
本仓库作为SakanaAI的进化模型合并系列的中心枢纽,展示其发布和资源。它包含了用于复现我们论文中评估的模型和代码。敬请期待更多即将到来的更新和补充。
模型
我们的模型
模型 | 大小 | 许可证 | 来源 |
---|---|---|---|
EvoLLM-JP-v1-7B | 7B | 微软研究许可证 | shisa-gamma-7b-v1, WizardMath-7B-V1.1, GAIR/Abel-7B-002 |
EvoLLM-JP-v1-10B | 10B | 微软研究许可证 | EvoLLM-JP-v1-7B, shisa-gamma-7b-v1 |
EvoLLM-JP-A-v1-7B | 7B | Apache 2.0 | shisa-gamma-7b-v1, Arithmo2-Mistral-7B, GAIR/Abel-7B-002 |
EvoVLM-JP-v1-7B | 7B | Apache 2.0 | LLaVA-1.6-Mistral-7B, shisa-gamma-7b-v1 |
EvoLLM-JP与源LLM的比较
有关评估的详细信息,请参阅论文的第4.1节。
模型 | MGSM-JA (准确率 ↑) | lm-eval-harness (平均 ↑) |
---|---|---|
Shisa Gamma 7B v1 | 9.6 | 66.1 |
WizardMath 7B V1.1 | 18.4 | 60.1 |
Abel 7B 002 | 30.0 | 56.5 |
Arithmo2 Mistral 7B | 24.0 | 56.4 |
EvoLLM-JP-A-v1-7B | 52.4 | 69.0 |
EvoLLM-JP-v1-7B | 52.0 | 70.5 |
EvoLLM-JP-v1-10B | 55.6 | 66.2 |
EvoVLM-JP与现有VLM的比较
有关评估的详细信息,请参阅论文的第4.2节。
模型 | JA-VG-VQA-500 (ROUGE-L ↑) | JA-VLM-Bench-In-the-Wild (ROUGE-L ↑) |
---|---|---|
LLaVA-1.6-Mistral-7B | 14.32 | 41.10 |
Japanese Stable VLM | -*1 | 40.50 |
Heron BLIP Japanese StableLM Base 7B llava-620k | 14.51 | 33.26 |
EvoVLM-JP-v1-7B | 19.70 | 51.25 |
- *1: Japanese Stable VLM无法使用JA-VG-VQA-500数据集进行评估,因为该模型已将此数据集用于训练。
复现评估
1. 克隆仓库
git clone https://github.com/SakanaAI/evolutionary-model-merge.git
cd evolutionary-model-merge
2. 下载fastext模型
我们使用fastext进行评估时检测语言。请从此链接下载lid.176.ftz
并将其放置在当前目录中。如果将文件放在当前目录以外的目录中,请使用LID176FTZ_PATH
环境变量指定文件路径。
3. 安装库
pip install -e .
我们在以下环境中进行了测试:Python版本3.10.12和CUDA版本12.3。 我们无法保证它在其他环境中能正常工作。
4. 运行
要启动评估,请使用特定配置运行以下脚本。论文中使用的所有配置都在configs
中。
python evaluate.py --config_path {配置路径}
致谢
我们要感谢源模型的开发者们的贡献,以及他们公开了他们的工作。我们的数学评估代码基于WizardMath仓库,我们对他们的工作表示感谢。