Awesome-LM-SSP学习资料大全 - 大型语言模型安全、隐私与保障资源汇总
Awesome-LM-SSP是一个致力于收集大型语言模型(LLM)安全性、隐私性和可靠性相关资源的开源项目。本文将为大家介绍该项目的主要内容和学习资源,帮助读者快速了解和使用这个宝贵的知识库。
项目简介
Awesome-LM-SSP由清华大学计算机系实验室(ThuCCSLab)发起维护,旨在整理大型模型(尤其是多模态大模型)可信性相关的研究资源,涵盖安全性、隐私性等多个维度。
该项目目前处于持续更新中,主要通过人工收集整理相关资源。截至目前,项目已收录超过1000篇相关论文,并提供了多个分类目录方便查阅。
主要资源分类
Awesome-LM-SSP项目将收集的资源分为以下几个主要类别:
-
论文(1038篇)
- 安全性(602篇)
- 隐私性(274篇)
- 可靠性(162篇)
-
调研报告(31篇)
-
工具包(9个)
-
竞赛信息(5个)
-
评测榜单(3个)
-
相关书籍(1本)
重点论文分类
在论文资源方面,项目按照不同研究主题进行了细分:
安全性相关:
- 越狱攻击(Jailbreak)
- 对齐(Alignment)
- 深度伪造(Deepfake)
- 伦理问题(Ethics)
- 公平性(Fairness)
- 幻觉(Hallucination)
- 提示注入(Prompt Injection)
- 有害内容(Toxicity)
隐私性相关:
- 版权问题(Copyright)
- 数据重建(Data Reconstruction)
- 成员推理攻击(Membership Inference Attacks)
- 模型提取(Model Extraction)
- 隐私保护计算(Privacy-Preserving Computation)
- 遗忘学习(Unlearning)
可靠性相关:
- 对抗样本(Adversarial Examples)
- 数据投毒与后门(Poison & Backdoor)
- 系统安全(System)
使用指南
-
访问项目GitHub主页了解最新动态。
-
查看Collections部分,可以直接跳转到感兴趣的资源分类。
-
对于论文资源,可以进入对应的主题页面(如Jailbreak)查看详细列表。
-
关注News部分了解最新收录情况。
-
如果有好的资源推荐,可以通过GitHub Issues提交。
Awesome-LM-SSP项目为研究大型语言模型安全性、隐私性和可靠性的学者和工程师提供了宝贵的知识库。无论您是刚接触这一领域的新手,还是寻找最新研究进展的专家,都可以在这里找到有价值的参考资料。希望本文能帮助您更好地利用这一资源,推动大型语言模型的可信AI研究不断向前发展。