Logo

HackingBuddyGPT: 助力道德黑客用50行代码驾驭大语言模型

HackingBuddyGPT: 用AI重塑安全测试的未来

在当今快速发展的网络安全领域,人工智能(AI)正在成为一个越来越重要的角色。而HackingBuddyGPT项目正站在这一创新浪潮的前沿,为安全研究人员提供了一个强大而灵活的工具,让他们能够利用大语言模型(LLMs)的力量来发现新的攻击向量,提高渗透测试的效率。让我们深入了解这个令人兴奋的项目,看看它如何正在重塑安全测试的未来。

项目起源与愿景

HackingBuddyGPT的故事始于一个简单而又发人深省的问题:"大语言模型能否被用来入侵系统?"这个问题最初由项目的核心贡献者Andreas Happe在一个雨天周末提出。初步的实验结果既令人兴奋又令人不安,这促使Andreas和他的同事们在维也纳工业大学(TU Wien)的IPA-Lab组建了一个由学者和专业渗透测试人员组成的多元化团队。

HackingBuddyGPT Logo

项目的核心愿景是通过赋能安全专业人士更高效地利用AI进行渗透测试,从而使世界变得更加安全。HackingBuddyGPT的创始人相信,安全研究人员进行的测试越多,我们所有人就会变得越安全。这个框架的目标是成为安全研究人员和渗透测试人员在使用LLMs或基于LLM的自主代理进行安全测试时的首选工具。

项目特色与功能

HackingBuddyGPT的主要特色在于其简洁而强大的设计理念。该框架允许安全研究人员在仅仅50行代码内就能创建自己的LLM黑客代理。这种高度抽象和模块化的设计大大降低了入门门槛,使得即使是对AI不太熟悉的安全专业人士也能快速上手并开始实验。

项目提供了多个预设的用例场景,包括:

  1. 最小化Linux提权示例: 这是一个仅用50行代码实现的Linux特权提升攻击示例,非常适合新手入门。

  2. Linux提权攻击: 给定一个低权限用户的SSH连接,任务是让LLM成为root用户。这是一个典型的Linux特权提升攻击场景。

  3. Web渗透测试: 直接对网页进行黑客攻击。该功能目前仍在开发中,处于预alpha阶段。

  4. Web API渗透测试: 直接测试REST API。同样处于开发的早期阶段,包括REST API的文档生成和测试。

除了这些预设场景,HackingBuddyGPT还提供了丰富的基础设施支持,包括:

  • 可配置的LLM连接(支持测试OpenAI或本地运行的LLMs)
  • 将每次运行的跟踪数据记录到本地sqlite数据库
  • 实现了回合限制(如果在此之前没有获得root权限,代理将停止)
  • 可以通过SSH连接到Linux目标,实现完全自主的命令执行(以及密码猜测)

这些功能使得研究人员可以快速构建和测试各种复杂的攻击场景,而无需从头开始编写所有底层逻辑。

技术实现与代码示例

为了更好地理解HackingBuddyGPT的工作原理,让我们来看一个最小化的Linux提权代理的代码示例:

template_dir = pathlib.Path(__file__).parent
template_next_cmd = Template(filename=str(template_dir / "next_cmd.txt"))

class MinimalLinuxPrivesc(Agent):
    
    conn: SSHConnection = None
    _sliding_history: SlidingCliHistory = None

    def init(self):
        super().init()
        self._sliding_history = SlidingCliHistory(self.llm)
        self.add_capability(SSHRunCommand(conn=self.conn), default=True)
        self.add_capability(SSHTestCredential(conn=self.conn))
        self._template_size = self.llm.count_tokens(template_next_cmd.source)

    def perform_round(self, turn: int) -> bool:
        got_root: bool = False

        with self._log.console.status("[bold green]Asking LLM for a new command..."):
            # get as much history as fits into the target context size
            history = self._sliding_history.get_history(self.llm.context_size - llm_util.SAFETY_MARGIN - self._template_size)

            # get the next command from the LLM
            answer = self.llm.get_response(template_next_cmd, capabilities=self.get_capability_block(), history=history, conn=self.conn)
            cmd = llm_util.cmd_output_fixer(answer.result)

        with self._log.console.status("[bold green]Executing that command..."):
            self._log.console.print(Panel(answer.result, title="[bold cyan]Got command from LLM:"))
            result, got_root = self.get_capability(cmd.split(" ", 1)[0])(cmd)

        # log and output the command and its result
        self._log.log_db.add_log_query(self._log.run_id, turn, cmd, result, answer)
        self._sliding_history.add_command(cmd, result)
        self._log.console.print(Panel(result, title=f"[bold cyan]{cmd}"))

        # if we got root, we can stop the loop
        return got_root

@use_case("Showcase Minimal Linux Priv-Escalation")
class MinimalLinuxPrivescUseCase(AutonomousAgentUseCase[MinimalLinuxPrivesc]):
    pass

这段代码展示了如何创建一个最小化的Linux提权代理。它利用了HackingBuddyGPT提供的基础设施,实现了与LLM的交互、命令执行、日志记录等功能。通过这种方式,研究人员可以专注于设计攻击策略,而不必过多关注底层实现细节。

项目影响力与未来发展

HackingBuddyGPT自推出以来已经获得了广泛的关注和认可。项目先后在多个重要场合进行了展示和讨论:

  • 2023年9月,Andreas在FIRST AI Security SIG上展示了初步研究结果。
  • 2023年12月,项目在旧金山举行的FSE'23会议上进行了正式发布。
  • 2024年5月,HackingBuddyGPT入选GitHub Accelerator 2024计划。
  • 2024年7月,项目将在GitHub总部的"Open Source + mezcal night"活动中进行演讲。
  • 2024年11月,Manuel Reinsperger将在欧洲安全与人工智能研讨会(ESSAI)上介绍HackingBuddyGPT。

这些活动不仅提高了项目的知名度,也为团队提供了宝贵的反馈和合作机会。

在学术研究方面,HackingBuddyGPT团队已经发表了多篇相关论文:

  1. 《Understanding Hackers' Work: An Empirical Study of Offensive Security Practitioners》
  2. 《Getting pwn'd by AI: Penetration Testing with Large Language Models》
  3. 《Got root? A Linux Privilege-Escalation Benchmark》
  4. 《LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks》

这些研究不仅为项目提供了理论基础,也推动了整个网络安全与AI交叉领域的发展。

伦理考量与免责声明

尽管HackingBuddyGPT为安全研究带来了巨大潜力,但项目团队也深知其潜在的风险和伦理问题。他们强调,使用HackingBuddyGPT攻击未经事先同意的目标是非法的。最终用户有责任遵守所有适用的地方、州和联邦法律。

项目还提供了详细的免责声明,明确指出:

  1. 这是一个实验性应用,不提供任何明示或暗示的保证。
  2. 开发者和贡献者不对使用该软件可能造成的任何损失、损害或其他后果承担责任。
  3. 使用OpenAI语言模型可能会产生高昂的token使用费用,用户应自行监控和管理token使用情况。
  4. 作为一个自主实验,HackingBuddyGPT可能会生成不符合现实世界最佳实践或法律要求的内容或采取相应行动。

结语

HackingBuddyGPT代表了网络安全与人工智能融合的前沿。通过为安全研究人员提供强大而灵活的工具,它正在推动整个行业向前发展。虽然项目仍处于早期阶段,但其潜力是巨大的。

随着AI技术的不断进步,我们可以期待看到更多类似HackingBuddyGPT的创新项目出现。这些项目将继续挑战我们对网络安全的传统认知,为构建一个更安全的数字世界铺平道路。

对于那些对网络安全和AI感兴趣的人来说,HackingBuddyGPT无疑是一个值得关注和深入研究的项目。无论你是经验丰富的安全专家还是刚刚入门的学生,这个项目都为你提供了一个绝佳的机会,让你能够站在技术前沿,探索AI驱动的安全测试的无限可能。

加入HackingBuddyGPT Discord社区

访问HackingBuddyGPT GitHub仓库

让我们共同期待HackingBuddyGPT以及整个AI安全领域的光明未来!

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
Project Cover
稿定AI
稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号