Project Icon

gemma-2-9b-it-function-calling-GGUF

精确优化与功能调用的对话生成应用

该项目对google/gemma-2-9b-it模型进行细致调优以处理函数调用任务,专注于提高对话生成的灵活性和功能集成。数据集采用DiTy/function-calling且为人类注释,为确保高质量结果输出,支持safetensors和GGUF格式,适用于各种应用场景。模型版本提供多种量化类型,从F16基础格式到Q6_K,适合高效精确实现函数调用的需求。

项目介绍:gemma-2-9b-it-function-calling-GGUF

项目背景

gemma-2-9b-it-function-calling-GGUF 是一款经过微调的模型,基于 google/gemma-2-9b-it,专为函数调用任务而设计。该模型在 DiTy/function-calling 数据集上进行微调,数据集全由人工注释,涉及非合成的英文数据。

值得注意的是,尽管该模型的质量相当高,但对于更高需求的用户,可以尝试 DiTy/gemma-2-27b-it-function-calling-GGUF

模型特点

  • 多种文件格式:模型提供多种格式的文件下载,包括 safetensorsGGUF
  • 社区支持:借助 Hugging Face 的 transformers 库,用户能够便捷地加载和运行该模型。
  • 丰富的应用场景:由于该模型侧重于函数调用的任务,它可被用于聊天机器人、自动化客服助手等多类应用场景。

模型文件

模型提供了不同的量化类型和文件尺寸,以适应不同用户的需求:

文件名量化类型文件大小描述
gemma-2-9B-it-function-calling-F16.ggufF1618.5GB使用float16的基础模型
gemma-2-9B-it-function-calling-Q8_0.ggufQ8_09.83GB极高质量,但通常不需要
gemma-2-9B-it-function-calling-Q6_K.ggufQ6_K7.59GB推荐,高度接近完美质量
gemma-2-9B-it-function-calling-Q5_K_M.ggufQ5_K_M6.65GB高质量,易于使用
gemma-2-9B-it-function-calling-Q5_K_S.ggufQ5_K_S6.48GB高质量,易于使用

如何使用

函数准备

要开始使用函数调用功能,用户需在 Python 代码中书写模型期望使用的函数,并确保添加适当的 Python 文档字符串。例如:

def get_weather(city: str):
    """
    返回指定城市天气情况的函数。
    
    参数:
        city: 获取天气的城市。
    """

模型加载

首先安装 transformers 库:

pip install -U transformers

然后下载模型和分词器:

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained(
    "DiTy/gemma-2-9b-it-function-calling-GGUF",
    device_map="auto",
    torch_dtype=torch.bfloat16,
    cache_dir="路径/到/模型/目录",
)

tokenizer = AutoTokenizer.from_pretrained(
    "DiTy/gemma-2-9b-it-function-calling-GGUF",
    cache_dir="路径/到/模型/目录",
)

模型使用

通过 apply_chat_template 方法与模型进行交互,将函数作为工具传递,并开启生成提示:

history_messages = [
    {"role": "system", "content": "你是一个有用的助手,拥有访问以下函数的权限。必要时请使用它们 - "},
    {"role": "user", "content": "你能告诉我洛杉矶的日出时间吗?"},
]

inputs = tokenizer.apply_chat_template(
    history_messages,
    tokenize=False,
    add_generation_prompt=True,
    tools=[get_weather, get_sunrise_sunset_times],
)

prompt_ids =  tokenizer.encode(inputs, add_special_tokens=False, return_tensors='pt').to(model.device)

评估指标

在模型学习过程中,验证误差已趋于以下值:

模型生成语言近似验证损失
DiTy/gemma-2-27b-it-function-calling-GGUFEN0.47
DiTy/gemma-2-9b-it-function-calling-GGUFEN0.5

结论

gemma-2-9b-it-function-calling-GGUF 是一个高质量且易于使用的模型,适用于多种文本生成和函数调用场景。通过灵活的模型文件配置,该模型能够在聊天机器人和智能助手等领域提供有效的支持。对于寻求高性能模型的用户,DiTy/gemma-2-27b-it-function-calling-GGUF 可能是一个值得尝试的选择。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

问小白

问小白是一个基于 DeepSeek R1 模型的智能对话平台,专为用户提供高效、贴心的对话体验。实时在线,支持深度思考和联网搜索。免费不限次数,帮用户写作、创作、分析和规划,各种任务随时完成!

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

Trae

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号