HackingBuddyGPT: 用AI重塑安全测试的未来
在当今快速发展的网络安全领域,人工智能(AI)正在成为一个越来越重要的角色。而HackingBuddyGPT项目正站在这一创新浪潮的前沿,为安全研究人员提供了一个强大而灵活的工具,让他们能够利用大语言模型(LLMs)的力量来发现新的攻击向量,提高渗透测试的效率。让我们深入了解这个令人兴奋的项目,看看它如何正在重塑安全测试的未来。
项目起源与愿景
HackingBuddyGPT的故事始于一个简单而又发人深省的问题:"大语言模型能否被用来入侵系统?"这个问题最初由项目的核心贡献者Andreas Happe在一个雨天周末提出。初步的实验结果既令人兴奋又令人不安,这促使Andreas和他的同事们在维也纳工业大学(TU Wien)的IPA-Lab组建了一个由学者和专业渗透测试人员组成的多元化团队。
项目的核心愿景是通过赋能安全专业人士更高效地利用AI进行渗透测试,从而使世界变得更加安全。HackingBuddyGPT的创始人相信,安全研究人员进行的测试越多,我们所有人就会变得越安全。这个框架的目标是成为安全研究人员和渗透测试人员在使用LLMs或基于LLM的自主代理进行安全测试时的首选工具。
项目特色与功能
HackingBuddyGPT的主要特色在于其简洁而强大的设计理念。该框架允许安全研究人员在仅仅50行代码内就能创建自己的LLM黑客代理。这种高度抽象和模块化的设计大大降低了入门门槛,使得即使是对AI不太熟悉的安全专业人士也能快速上手并开始实验。
项目提供了多个预设的用例场景,包括:
-
最小化Linux提权示例: 这是一个仅用50行代码实现的Linux特权提升攻击示例,非常适合新手入门。
-
Linux提权攻击: 给定一个低权限用户的SSH连接,任务是让LLM成为root用户。这是一个典型的Linux特权提升攻击场景。
-
Web渗透测试: 直接对网页进行黑客攻击。该功能目前仍在开发中,处于预alpha阶段。
-
Web API渗透测试: 直接测试REST API。同样处于开发的早期阶段,包括REST API的文档生成和测试。
除了这些预设场景,HackingBuddyGPT还提供了丰富的基础设施支持,包括:
- 可配置的LLM连接(支持测试OpenAI或本地运行的LLMs)
- 将每次运行的跟踪数据记录到本地sqlite数据库
- 实现了回合限制(如果在此之前没有获得root权限,代理将停止)
- 可以通过SSH连接到Linux目标,实现完全自主的命令执行(以及密码猜测)
这些功能使得研究人员可以快速构建和测试各种复杂的攻击场景,而无需从头开始编写所有底层逻辑。
技术实现与代码示例
为了更好地理解HackingBuddyGPT的工作原理,让我们来看一个最小化的Linux提权代理的代码示例:
template_dir = pathlib.Path(__file__).parent
template_next_cmd = Template(filename=str(template_dir / "next_cmd.txt"))
class MinimalLinuxPrivesc(Agent):
conn: SSHConnection = None
_sliding_history: SlidingCliHistory = None
def init(self):
super().init()
self._sliding_history = SlidingCliHistory(self.llm)
self.add_capability(SSHRunCommand(conn=self.conn), default=True)
self.add_capability(SSHTestCredential(conn=self.conn))
self._template_size = self.llm.count_tokens(template_next_cmd.source)
def perform_round(self, turn: int) -> bool:
got_root: bool = False
with self._log.console.status("[bold green]Asking LLM for a new command..."):
# get as much history as fits into the target context size
history = self._sliding_history.get_history(self.llm.context_size - llm_util.SAFETY_MARGIN - self._template_size)
# get the next command from the LLM
answer = self.llm.get_response(template_next_cmd, capabilities=self.get_capability_block(), history=history, conn=self.conn)
cmd = llm_util.cmd_output_fixer(answer.result)
with self._log.console.status("[bold green]Executing that command..."):
self._log.console.print(Panel(answer.result, title="[bold cyan]Got command from LLM:"))
result, got_root = self.get_capability(cmd.split(" ", 1)[0])(cmd)
# log and output the command and its result
self._log.log_db.add_log_query(self._log.run_id, turn, cmd, result, answer)
self._sliding_history.add_command(cmd, result)
self._log.console.print(Panel(result, title=f"[bold cyan]{cmd}"))
# if we got root, we can stop the loop
return got_root
@use_case("Showcase Minimal Linux Priv-Escalation")
class MinimalLinuxPrivescUseCase(AutonomousAgentUseCase[MinimalLinuxPrivesc]):
pass
这段代码展示了如何创建一个最小化的Linux提权代理。它利用了HackingBuddyGPT提供的基础设施,实现了与LLM的交互、命令执行、日志记录等功能。通过这种方式,研究人员可以专注于设计攻击策略,而不必过多关注底层实现细节。
项目影响力与未来发展
HackingBuddyGPT自推出以来已经获得了广泛的关注和认可。项目先后在多个重要场合进行了展示和讨论:
- 2023年9月,Andreas在FIRST AI Security SIG上展示了初步研究结果。
- 2023年12月,项目在旧金山举行的FSE'23会议上进行了正式发布。
- 2024年5月,HackingBuddyGPT入选GitHub Accelerator 2024计划。
- 2024年7月,项目将在GitHub总部的"Open Source + mezcal night"活动中进行演讲。
- 2024年11月,Manuel Reinsperger将在欧洲安全与人工智能研讨会(ESSAI)上介绍HackingBuddyGPT。
这些活动不仅提高了项目的知名度,也为团队提供了宝贵的反馈和合作机会。
在学术研究方面,HackingBuddyGPT团队已经发表了多篇相关论文:
- 《Understanding Hackers' Work: An Empirical Study of Offensive Security Practitioners》
- 《Getting pwn'd by AI: Penetration Testing with Large Language Models》
- 《Got root? A Linux Privilege-Escalation Benchmark》
- 《LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks》
这些研究不仅为项目提供了理论基础,也推动了整个网络安全与AI交叉领域的发展。
伦理考量与免责声明
尽管HackingBuddyGPT为安全研究带来了巨大潜力,但项目团队也深知其潜在的风险和伦理问题。他们强调,使用HackingBuddyGPT攻击未经事先同意的目标是非法的。最终用户有责任遵守所有适用的地方、州和联邦法律。
项目还提供了详细的免责声明,明确指出:
- 这是一个实验性应用,不提供任何明示或暗示的保证。
- 开发者和贡献者不对使用该软件可能造成的任何损失、损害或其他后果承担责任。
- 使用OpenAI语言模型可能会产生高昂的token使用费用,用户应自行监控和管理token使用情况。
- 作为一个自主实验,HackingBuddyGPT可能会生成不符合现实世界最佳实践或法律要求的内容或采取相应行动。
结语
HackingBuddyGPT代表了网络安全与人工智能融合的前沿。通过为安全研究人员提供强大而灵活的工具,它正在推动整个行业向前发展。虽然项目仍处于早期阶段,但其潜力是巨大的。
随着AI技术的不断进步,我们可以期待看到更多类似HackingBuddyGPT的创新项目出现。这些项目将继续挑战我们对网络安全的传统认知,为构建一个更安全的数字世界铺平道路。
对于那些对网络安全和AI感兴趣的人来说,HackingBuddyGPT无疑是一个值得关注和深入研究的项目。无论你是经验丰富的安全专家还是刚刚入门的学生,这个项目都为你提供了一个绝佳的机会,让你能够站在技术前沿,探索AI驱动的安全测试的无限可能。
让我们共同期待HackingBuddyGPT以及整个AI安全领域的光明未来!