#mergekit
mergekit - 合并预训练语言模型的工具
mergekitHugging Face模型融合LlamaGPT-NeoXGithub开源项目
MergeKit是一款合并预训练语言模型的工具,支持Llama、Mistral、GPT-NeoX等多种模型。该工具采用先进的方法,在资源有限的情况下执行复杂的合并操作。MergeKit可以在CPU或最低8GB VRAM环境下运行,支持多种合并算法,如线性插值、任务算术、TIES等。还提供图形用户界面并集成到Hugging Face Spaces,简化了模型合并流程。
Stellar-Odyssey-12b-v0.0 - 语言模型合并的先锋工具
开源项目模型transformersGithubHuggingface合并模型mergekitStellar Odyssey语言模型
Stellar Odyssey 12b v0.0项目使用mergekit和della_linear方法,将Mistral-Nemo-Base-2407与MN-12B系列等多个语言模型成功整合,结合不同模型的特点,提高了性能表现。目前项目处于测试阶段,在此感谢AuriAetherwiing的技术支持。
bigyi-15b - 合并模型技术的进步:探索创新设计
bigyi-15b开源项目上下文合并方法模型语言模型HuggingfacemergekitGithub
Bigyi-15b融合了若干预训练语言模型,利用mergekit工具及passthrough合并方法,以01-ai/Yi-9B为核心,具备4k上下文处理能力。此模型增强了在多应用场景中的表现,比如复杂数值计算与自然语言生成,同时优化了信息匹配准确性。
MistralRP-Noromaid-NSFW-Mistral-7B-GGUF - 基于Mistral-7B的角色扮演与NSFW模型合并项目
语言模型Mistralmergekit模型合并预训练模型Github开源项目Huggingface
这是一个使用mergekit工具开发的模型融合项目,通过SLERP方法将Mistral-RP和NSFW-Noromaid两个预训练模型合并。项目采用Alpaca提示模板,整合了角色扮演与NSFW内容特性,适用于相关场景的语言生成任务。
Llama-3-8B-Ultra-Instruct-SaltSprinkle - 文本生成与多任务性能提升的融合模型
Github模型DARE开源项目AI推理挑战text-generationmergekitHuggingfaceHellaSwag
项目利用DARE TIES方法融合NousResearch与Dampfinchen模型,提升文本生成和推理性能。在AI2推理和HellaSwag测试中表现突出,准确率分别为61.35%和77.76%。项目增强了模型的推理能力及德语和故事生成的效果。需注意,该模型可能生成有害内容,用户使用时自行承担责任。详细结果可在Open LLM Leaderboard查看。
StopCarbon-10.7B-v5 - 使用slerp方法合并创建的实验性AI模型
开源项目模型GithubHuggingface实验模型slerp模型合并StopCarbonmergekit
StopCarbon-10.7B-v5是一个利用mergekit工具合并多个模型的实验性项目,包括Sakura-SOLAR-Instruct和CarbonVillain-en-10.7B-v1。该项目采用slerp方法进行模型合并,以研究其潜在用途和应用场景。
M7-7b - 第三方开源项目的模型合并和性能优化
神经网络mergekitLarge Language Model模型合并模型Github开源项目ASCII艺术Huggingface
M7-7b项目通过mergekit工具和slerp方法实现多个语言模型的高效合并与优化。项目提供了丰富的技术细节,包括参数设置、数据类型和合并流程等,帮助开发者在模型性能提升和应用中获得实用指导。结合liminerity/merge等模型的实例解析,展示了开源项目在AI模型整合中的创新应用,适合对模型合并技术有兴趣的专业人士了解和研究。