Patchwork使用自托管的命令行界面代理和您偏好的大语言模型来自动化PR审查、错误修复、安全补丁等开发繁琐工作。
主要组件
- 步骤:可重用的原子操作,如创建PR、提交更改或调用大语言模型。
- 提示模板:可自定义的大语言模型提示,针对库更新、代码生成、问题分析或漏洞修复等任务进行了优化。
- 补丁流程:通过组合步骤和提示构建的大语言模型辅助自动化流程,如PR审查、代码修复、文档编写等。
补丁流程可以在您的命令行界面和IDE中本地运行,或作为CI/CD管道的一部分。有多个现成的补丁流程可用,您也可以随时创建自己的。
演示
安装
使用Pip
Patchwork可在PyPI上获取,并可使用pip安装:
pip install 'patchwork-cli[all]' --upgrade
以下是可用的可选依赖组:
security
:通过pip install 'patchwork-cli[security]'
安装semgrep
和depscan
,这是AutoFix和DependencyUpgrade补丁流程所需的。rag
:通过pip install 'patchwork-cli[rag]'
安装chromadb
,这是ResolveIssue补丁流程所需的。notifications
:用于发送通知的步骤,如Slack消息。all
:安装所有内容。- 不指定任何依赖组(
pip install patchwork-cli
)将安装足以运行GenerateDocstring、PRReview和GenerateREADME补丁流程的核心依赖集。
使用Poetry
如果您想使用poetry从源代码构建,请参阅此处的详细文档。
Patchwork命令行界面
命令行界面运行补丁流程,如下所示:
patchwork <补丁流程> <?参数>
其中
- 参数:允许以
key=value
的格式覆盖补丁流程的默认/可选属性。如果key
没有任何值,则被视为布尔True
标志。
示例
对于基于使用Semgrep扫描来修补漏洞的AutoFix补丁流程:
patchwork AutoFix openai_api_key=<您的OpenAI API密钥> github_api_key=<您的GitHub令牌>
上述命令默认通过运行Semgrep来识别漏洞,从而修补当前目录中的代码。您可以查看default.yml
文件以获取可以设置的配置列表,以管理AutoFix补丁流程。有关如何在命令行上使用GitHub个人访问令牌的更多详细信息,可以阅读此处。
您可以将OpenAI密钥替换为我们托管服务的密钥,方法是在https://app.patched.codes/signin登录并从集成标签生成API密钥。然后,您可以使用以下密钥调用补丁流程:
patchwork AutoFix patched_api_key=<您的Patched API密钥> github_api_key=<您的GitHub令牌>
要使用Google的模型,您可以设置google_api_key
和model
,如果您想处理大型上下文,这很有用,因为gemini-pro-1.5
模型支持100万个令牌的输入上下文长度。
patchwork-template 仓库包含了所有补丁流程的默认配置和提示。你可以克隆该仓库,并将其作为参数传递给命令行界面:
patchwork AutoFix --config /path/to/patchwork-configs/patchflows
使用开源模型
Patchwork 支持任何与 OpenAI 兼容的端点,允许使用来自 Groq、Together AI 或 Hugging Face 等各种提供商的任何 LLM。
例如,要使用 Groq.com 的 Llama 3.1 405B,运行:
patchwork AutoFix client_base_url=https://api.groq.com/openai/v1 openai_api_key=your_groq_key model=llama-3.1-405b-reasoning
你也可以使用配置文件来实现同样的效果。要使用 Hugging Face 的 Llama 3.1 405B,创建一个 config.yml 文件:
openai_api_key: your_hf_token
client_base_url: https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3.1-405B-Instruct-FP8/v1
model: Meta-Llama-3.1-405B-Instruct-FP8
然后运行:
patchwork AutoFix --config=/path/to/config.yml
这允许你通过 llama.cpp
、ollama
、vllm
或 tgi
运行本地模型。例如,你可以使用 llama_cpp.server
在本地运行 Llama 3.1 8B:
python -m llama_cpp.server --hf_model_repo_id bullerwins/Meta-Llama-3.1-8B-Instruct-GGUF --model 'Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf' --chat_format chatml
然后运行你的补丁流程:
patchwork AutoFix client_base_url=https://localhost/v1 openai_api_key=no_key_local_model
补丁流程
Patchwork 附带预定义的补丁流程,随时间会添加更多。示例补丁流程包括:
- GenerateDocstring:为代码中的方法生成文档字符串。
- AutoFix:生成并应用修复,以解决仓库中的代码漏洞。
- PRReview:在创建 PR 时,提取代码差异,总结更改,并在 PR 上发表评论。
- GenerateREADME:为给定文件夹创建 README markdown 文件,为你的仓库添加文档。
- DependencyUpgrade:将你的依赖项从易受攻击的版本更新到修复版本。
- ResolveIssue:识别仓库中需要更新以解决问题(或错误)的文件,并创建 PR 进行修复。
提示模板
提示模板由补丁流程使用,并作为查询传递给 LLM。模板包含带有占位符变量的提示,这些变量用 {{}}
括起来,在每次运行时都会被步骤或输入的数据替换。
以下是一个示例提示模板:
{
"id": "diffreview_summary",
"prompts": [
{
"role": "user",
"content": "用一段话总结以下代码更改描述。{{diffreviews}}"
}
]
}
每个补丁流程都有一个优化的默认提示模板。但你可以使用 prompt_template_file=/path/to/prompt/template/file
选项指定自己的模板。
贡献
欢迎为新的补丁流程和步骤,或核心框架做出贡献。请查看开放的问题以获取详细信息。
我们还提供了一个聊天助手,帮助你轻松创建新的步骤和补丁流程。
- HuggingChat 上的 Patchwork 助手(基于 Llama-3)
路线图
短期
- 扩展补丁流程库和集成选项
- 补丁流程调试器和验证模块
- 错误修复和性能改进
- 重构代码和文档
长期
- 支持补丁流程中的大规模代码嵌入
- 支持并行化和分支
- 可自托管的微调模型
- 开源 GUI
许可
Patchwork 根据 AGPL-3.0 条款授权。然而,可以使用 patchwork 模板仓库创建和共享自定义补丁流程和步骤,该仓库根据 Apache-2.0 条款授权。