hackingBuddyGPT简介
hackingBuddyGPT是一个帮助安全研究人员使用大型语言模型(LLM)发现新攻击向量的框架。它的目标是让安全专业人员能够用50行或更少的代码利用AI进行更多的黑客测试,从而让世界变得更安全。hackingBuddyGPT旨在成为对使用LLM或基于LLM的自主代理进行安全测试感兴趣的安全研究人员和渗透测试人员的首选框架。
官方资源
入门指南
- 克隆仓库并安装依赖:
git clone https://github.com/ipa-lab/hackingBuddyGPT.git
cd hackingBuddyGPT
python -m venv venv
source ./venv/bin/activate
pip install -e .
- 配置OpenAI API密钥和目标机器信息:
cp .env.example .env
vi .env
- 运行hackingBuddyGPT:
python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc
更多详细的入门步骤,请参考官方快速入门指南。
主要功能和用例
hackingBuddyGPT提供了多个预置的代理和用例:
- 最小Linux提权示例 - 50行代码的Linux提权示例
- Linux提权 - 给定低权限SSH连接,让LLM获得root权限
- Web渗透测试 - 直接对网页进行黑客攻击(开发中)
- Web API测试 - 直接测试REST API(开发中)
学术研究和论文
hackingBuddyGPT团队发表了多篇相关学术论文:
- Getting pwn'd by AI: Penetration Testing with Large Language Models - hackingBuddyGPT的原始论文
- Understanding Hackers' Work: An Empirical Study of Offensive Security Practitioners
- Got root? A Linux Privilege-Escalation Benchmark
- LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks
这些论文为理解hackingBuddyGPT的原理和应用提供了深入的学术视角。
社区和贡献
hackingBuddyGPT是一个开源项目,欢迎社区贡献。您可以通过以下方式参与:
- 在GitHub上提交issue或pull request
- 加入Discord社区讨论和提供反馈
- 编写新的用例或改进现有功能
- 帮助改进文档
免责声明
请注意,hackingBuddyGPT仅用于教育和研究目的。未经事先同意攻击目标是非法的。使用者有责任遵守所有适用的法律法规。开发者不对任何滥用或由此程序造成的损害负责。
通过本文的资料汇总,相信读者可以快速了解hackingBuddyGPT项目,并找到所需的学习资源。无论您是安全研究人员、渗透测试人员还是对AI安全感兴趣的开发者,hackingBuddyGPT都为您提供了一个强大的工具来探索LLM在安全测试中的应用。