项目介绍:Meta-Llama-3-8B-Instruct-abliterated-v3
项目背景
Meta-Llama-3-8B-Instruct-abliterated-v3 是一个对大型语言模型(LLM)进行权重调整的项目。具体来说,此模型基于名为 "正交化 bfloat16 safetensor 权重" 的技术,通过控制某些权重实现模型功能的微调。这项工作依据的研究表明,LLM 中的某些拒绝行为可以通过一种特定方向的调整来管理。对这项研究有兴趣的小伙伴可以阅读相关的预研文章《Refusal in LLMs is mediated by a single direction》,以获得更多背景知识。
什么是 "abliteration" 和正交化?
这款模型经过调整以"抑制"模型拒绝执行某些请求的能力。需要注意的是,这并不能完全保证模型不会拒绝或误解用户请求,它仍可能对伦理或安全问题进行劝告。但这款模型在其他方面与原始的 70B instruct 模型保持一致,只是去除了模型最强的拒绝方向。
这里提到的 "abliteration"(拆词游戏)是从原始论文中 "去除特征" 的 "ablation"(消融)一词演变而来,以区别于那些未经过滤的微调模型。ablation 与正交化共同指的是去除模型中拒绝特征的方法。
方法论与意义
对于为何选用这种方法而不是传统的微调来说,ablation 提供了一种更精细的调整方式,可以在非常具体的特征上进行切入,且所需数据量远少于微调。这使得它可以保留模型的主要训练知识,仅去除特定不良行为倾向(例如,拒绝用户请求)。
尽管微调依然是广泛行为调整的首选,但 ablation/augmentation 技术可以通过较少样本实现接近目标的行为特性。此外,它还可以作为模型改进过程中的一个有用步骤,比如先进行正交化后再进行微调,或者反过来。
关于V3版本
在 V3 之前,曾发布过一个 8B 的 V2 版本,但对于 70B 来说,V2 并没有显著价值。因此,这次跳过 V2 直接发布了 V3 版本。而V3 采用了改良的方法,降低了幻觉出现的频率。
"怪癖"公告
由于方法的新颖性,模型可能会出现一些有趣的"怪癖"。欢迎大家与之互动,探索并反馈这些可能的副作用。分享你的发现将有助于我们更好地理解正交化的效果。
如果你在模型的进一步改进中取得了成就,请与社区分享。虽然这是使用 ablation 技术的一个基础方法,但我们相信还有更多未被探索的潜能蓄势待发。此外,欢迎通过社区平台联系项目团队,随时提供支持。
这个项目着眼于革新大型模型中不良行为的去除,同时保留其核心能力,开辟了模型优化的新篇章。