Llama2-Code-Interpreter 项目介绍
项目概述
Llama2-Code-Interpreter 是一个致力于生成代码、执行代码、获取反馈、调试并回答相关问题的项目。这一项目的设计直观且灵活,能够处理多种编程语言和框架,适用于广泛的编程场景。
快速开始
要快速体验 Llama2,你可以运行 Gradio 应用程序:
python3 chatbot.py --path Seungyoun/codellama-7b-instruct-pad
最新消息
在 2023 年 8 月 27 日,我们非常高兴地宣布,🤗 Llama2 Code Interpreter-7B 模型在 HumanEval 基准测试中实现了惊人的 70.12% pass@1 成绩。
-
HumanEval
模型 得分(pass@1) Codellama instruct 7b 34.8% Codellama instruct 7b - 精调 70.12% -
GSM8K
模型 得分 Code Llama 7B 13% Code Llama 13B 20.8% Codellama instruct 7b - 精调 28%
主要特点
- 🚀 代码生成与执行:Llama2 能够生成代码,并自动识别和执行这些代码块中的内容。
- 监控并保留以前执行过的代码块中使用的 Python 变量。
- 当前专注于 "为 GPT-4 代码解释进行数据开发" 和 "利用该数据增强模型"。有关更多详细信息,请查看 feat/finetuning 分支。
- 支持 CodeLlama2。
示例
在展示的动图中,Llama2 正在执行任务。用户输入请求:Plot Nvidia 90 days chart.
Llama2 是一个在精选数据集上经过精调的高级代码解释器,它迅速查询 Yahoo Finance
,在短时间内获取过去 90 天的 Nvidia 股票价格,并用 Matplotlib
生成 Nvidia 的股票价格变化图,清晰展示其在此期间的市场表现。
安装
-
克隆代码库(如果尚未完成):
git clone https://github.com/SeungyounShin/Llama2-Code-Interpreter.git cd Llama2-Code-Interpreter
-
安装所需的依赖项:
pip install -r requirements.txt
使用 GPT-4 精调的 Llama 模型运行应用
按照以下步骤通过 Gradio 界面与 Llama2 互动:
- 运行 Gradio 应用:
python3 chatbot.py --path Seungyoun/codellama-7b-instruct-pad
如果希望使用其他模型:
一般应用运行说明
要通过 Gradio UI 与 Llama2 互动,可以使用其他模型,运行下列命令:
- 运行命令:
python3 chatbot.py --model_path <your-model-path>
请将 <your-model-path>
替换为你希望使用的模型文件路径。推荐的互动模型是 meta-llama/Llama-2-13b-chat
。
贡献
欢迎各位贡献代码、提出问题和功能请求!可以查看 问题页面。
许可证
根据 MIT 许可证分发。更多信息请查看 LICENSE
。
联系
Seungyoun, Shin - 2022021568@korea.ac.kr
致谢
以下相关项目对本项目的发展提供了重要的贡献:
- llama2 : GitHub Repository
- yet-another-gpt-tutorial : GitHub Repository
这些项目在提供有价值的见解和资源方面功不可没,其贡献值得高度赞赏。