DB-GPT-Hub学习资料汇总 - 基于大语言模型的开放文本到SQL基准平台

Ray

DB-GPT-Hub

DB-GPT-Hub学习资料汇总

DB-GPT-Hub是一个基于大语言模型的开放文本到SQL基准平台,旨在通过微调大语言模型来提升文本到SQL的转换能力。本文汇总了DB-GPT-Hub项目的相关学习资料,帮助开发者快速了解和使用该项目。

1. 项目介绍

DB-GPT-Hub是一个实验性项目,利用大语言模型(LLMs)实现文本到SQL的解析。该项目包括数据收集、数据预处理、模型选择与构建、模型权重微调等多个阶段,目标是提高文本到SQL的转换能力,同时降低模型训练成本,使更多开发者能参与到提升文本到SQL准确性的工作中来。

项目GitHub仓库:https://github.com/eosphoros-ai/DB-GPT-Hub

2. 主要特性

  • 多模型管理(SMMF):简化AI模型的集成和管理
  • Text2SQL优化:提高自然语言查询转SQL的效率和准确性
  • RAG框架:通过检索增强生成技术提升响应质量
  • 多智能体协作:支持多个智能体协同完成复杂任务
  • AWEL(智能工作流表达语言):用于编排智能体工作流

3. 数据集

DB-GPT-Hub主要使用以下数据集:

  • Spider:跨领域的复杂文本到SQL数据集
  • WikiSQL:大规模语义解析数据集
  • CHASE:中文跨领域多轮交互文本到SQL数据集
  • BIRD-SQL:专注于大规模数据库内容的英文文本到SQL基准

4. 支持的模型

目前支持的基础模型包括:

  • CodeLlama
  • Baichuan2
  • LLaMa/LLaMa2
  • Falcon
  • Qwen
  • XVERSE
  • ChatGLM2/3
  • internlm
  • sqlcoder系列

5. 使用教程

5.1 环境准备

git clone https://github.com/eosphoros-ai/DB-GPT-Hub.git
cd DB-GPT-Hub
conda create -n dbgpt_hub python=3.10
conda activate dbgpt_hub
cd src/dbgpt_hub_sql
pip install -e .

5.2 快速开始

安装dbgpt-hub:

pip install dbgpt-hub

使用Python代码运行完整流程:

from dbgpt_hub_sql.data_process import preprocess_sft_data
from dbgpt_hub_sql.train import start_sft
from dbgpt_hub_sql.predict import start_predict
from dbgpt_hub_sql.eval import start_evaluate

# 配置数据集
data_folder = "dbgpt_hub_sql/data"
data_info = [
    {
        "data_source": "spider",
        "train_file": ["train_spider.json", "train_others.json"],
        "dev_file": ["dev.json"],
        "tables_file": "tables.json",
        "db_id_name": "db_id",
        "is_multiple_turn": False,
        "train_output": "spider_train.json",
        "dev_output": "spider_dev.json",
    }
]

# 配置训练参数
train_args = {
    "model_name_or_path": "codellama/CodeLlama-13b-Instruct-hf",
    "do_train": True,
    "dataset": "example_text2sql_train",
    "max_source_length": 2048,
    "max_target_length": 512,
    "finetuning_type": "lora",
    "lora_target": "q_proj,v_proj",
    "template": "llama2",
    "lora_rank": 64,
    "lora_alpha": 32,
    "output_dir": "dbgpt_hub_sql/output/adapter/CodeLlama-13b-sql-lora",
    "overwrite_cache": True,
    "overwrite_output_dir": True,
    "per_device_train_batch_size": 1,
    "gradient_accumulation_steps": 16,
    "lr_scheduler_type": "cosine_with_restarts", 
    "logging_steps": 50,
    "save_steps": 2000,
    "learning_rate": 2e-4,
    "num_train_epochs": 8,
    "plot_loss": True,
    "bf16": True,
}

# 配置预测参数  
predict_args = {
    "model_name_or_path": "codellama/CodeLlama-13b-Instruct-hf",
    "template": "llama2",
    "finetuning_type": "lora",
    "checkpoint_dir": "dbgpt_hub_sql/output/adapter/CodeLlama-13b-sql-lora",
    "predict_file_path": "dbgpt_hub_sql/data/eval_data/dev_sql.json",
    "predict_out_dir": "dbgpt_hub_sql/output/",
    "predicted_out_filename": "pred_sql.sql",
}

# 配置评估参数
evaluate_args =  {
    "input": "./dbgpt_hub_sql/output/pred/pred_sql_dev_skeleton.sql",
    "gold": "./dbgpt_hub_sql/data/eval_data/gold.txt", 
    "gold_natsql": "./dbgpt_hub_sql/data/eval_data/gold_natsql2sql.txt",
    "db": "./dbgpt_hub_sql/data/spider/database",
    "table": "./dbgpt_hub_sql/data/eval_data/tables.json",
    "table_natsql": "./dbgpt_hub_sql/data/eval_data/tables_for_natsql2sql.json", 
    "etype": "exec",
    "plug_value": True,
    "keep_distict": False,
    "progress_bar_for_each_datapoint": False,
    "natsql": False,
}

# 运行完整流程
preprocess_sft_data(
    data_folder = data_folder,
    data_info = data_info  
)

start_sft(train_args)
start_predict(predict_args)  
start_evaluate(evaluate_args)

5.3 数据准备

下载Spider数据集并放置在dbgpt_hub_sql/data/spider目录下,然后运行:

sh dbgpt_hub_sql/scripts/gen_train_eval_data.sh

5.4 模型微调

运行以下命令进行模型微调:

sh dbgpt_hub_sql/scripts/train_sft.sh

5.5 模型预测

运行以下命令进行模型预测:

sh ./dbgpt_hub_sql/scripts/predict_sft.sh  

5.6 模型评估

运行以下命令评估模型性能:

python dbgpt_hub_sql/eval/evaluation.py --plug_value --input Your_model_pred_file

6. 模型权重

您可以在Hugging Face上找到预训练的模型权重。

7. 贡献指南

我们欢迎更多人参与到项目中来,包括数据集、模型微调、性能评估、论文推荐和代码复现等方面。请随时提出issues或pull requests。

8. 相关资源

DB-GPT-Hub为开发者提供了一个强大的文本到SQL基准平台。通过本文的学习资料汇总,希望能帮助更多人了解和使用这个项目,共同推动自然语言处理和数据库查询技术的发展。

avatar
0
0
0
最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号