Project Icon

Qwen-Agent

基于千问大模型的应用开发框架 支持工具调用和长文本处理

Qwen-Agent是基于通义千问大语言模型的应用开发框架。该框架提供指令跟随、工具使用、规划和记忆等功能,包含浏览器助手和代码解释器等示例应用。它支持自定义工具开发,提供原子级和高级组件,能处理超长文档问答,并在多个基准测试中表现出色。开发者可以利用Qwen-Agent创建智能助手,实现复杂的人工智能应用。

中文 | English


Qwen-Agent 是一个基于 Qwen 的指令跟随、工具使用、规划和记忆能力的 LLM 应用开发框架。它还附带了示例应用,如浏览器助手、代码解释器和自定义助手。

入门指南

安装

  • 从 PyPI 安装稳定版本:
pip install -U qwen-agent[rag,code_interpreter]
# 如果不使用 RAG 和代码解释器,可以通过 `pip install -U qwen-agent` 安装最小依赖。
  • 或者,您可以从源代码安装最新的开发版本:
git clone https://github.com/QwenLM/Qwen-Agent.git
cd Qwen-Agent
pip install -e ./[rag,code_interpreter]
# 如果不使用 RAG 和代码解释器,可以通过 `pip install -e ./` 安装最小依赖。

如果需要内置 GUI 支持,请通过以下方式安装可选依赖:

pip install -U qwen-agent[gui,rag,code_interpreter]
# 或从源代码安装:`pip install -e ./[gui,rag,code_interpreter]`

准备:模型服务

您可以使用阿里云的 DashScope 提供的模型服务,或者部署并使用自己的开源 Qwen 模型服务。

  • 如果您选择使用 DashScope 提供的模型服务,请确保将环境变量 DASHSCOPE_API_KEY 设置为您唯一的 DashScope API 密钥。

  • 或者,如果您更喜欢部署和使用自己的模型服务,请按照 Qwen2 的 README 中提供的说明部署兼容 OpenAI 的 API 服务。具体来说,请参考 vLLM 部分了解高吞吐量 GPU 部署,或 Ollama 部分了解本地 CPU(+GPU)部署。

开发您自己的 Agent

Qwen-Agent 提供了原子组件,如 LLM(继承自 class BaseChatModel,并附带函数调用)和工具(继承自 class BaseTool),以及高级组件如 Agent(派生自 class Agent)。

以下示例说明了创建一个能够读取 PDF 文件并使用工具的 agent 的过程,以及如何添加自定义工具:

import pprint
import urllib.parse
import json5
from qwen_agent.agents import Assistant
from qwen_agent.tools.base import BaseTool, register_tool


# 步骤 1(可选):添加一个名为 `my_image_gen` 的自定义工具。
@register_tool('my_image_gen')
class MyImageGen(BaseTool):
    # `description` 告诉 agent 这个工具的功能。
    description = 'AI 绘画(图像生成)服务,输入文本描述,返回基于文本信息绘制的图像 URL。'
    # `parameters` 告诉 agent 这个工具有哪些输入参数。
    parameters = [{
        'name': 'prompt',
        'type': 'string',
        'description': '所需图像内容的详细描述,使用英语',
        'required': True
    }]

    def call(self, params: str, **kwargs) -> str:
        # `params` 是 LLM agent 生成的参数。
        prompt = json5.loads(params)['prompt']
        prompt = urllib.parse.quote(prompt)
        return json5.dumps(
            {'image_url': f'https://image.pollinations.ai/prompt/{prompt}'},
            ensure_ascii=False)


# 步骤 2:配置您正在使用的 LLM。
llm_cfg = {
    # 使用 DashScope 提供的模型服务:
    'model': 'qwen-max',
    'model_server': 'dashscope',
    # 'api_key': 'YOUR_DASHSCOPE_API_KEY',
    # 如果这里没有设置 'api_key',将使用 'DASHSCOPE_API_KEY' 环境变量。

    # 使用兼容 OpenAI API 的模型服务,如 vLLM 或 Ollama:
    # 'model': 'Qwen2-7B-Chat',
    # 'model_server': 'http://localhost:8000/v1',  # base_url,也称为 api_base
    # 'api_key': 'EMPTY',

    # (可选)LLM 生成的超参数:
    'generate_cfg': {
        'top_p': 0.8
    }
}

# 步骤 3:创建一个 agent。这里我们以 `Assistant` agent 为例,它能够使用工具和读取文件。
system_instruction = '''你是一个有用的助手。
收到用户的请求后,你应该:
- 首先绘制一张图像并获取图像 URL,
- 然后运行代码 `request.get(image_url)` 下载图像,
- 最后从给定文档中选择一个图像操作来处理图像。
请使用 `plt.show()` 显示图像。'''
tools = ['my_image_gen', 'code_interpreter']  # `code_interpreter` 是一个用于执行代码的内置工具。
files = ['./examples/resource/doc.pdf']  # 给机器人一个 PDF 文件阅读。
bot = Assistant(llm=llm_cfg,
                system_message=system_instruction,
                function_list=tools,
                files=files)

# 步骤 4:将 agent 作为聊天机器人运行。
messages = []  # 这里存储聊天历史。
while True:
    # 例如,输入查询"画一只狗并将其旋转 90 度"。
    query = input('用户查询: ')
    # 将用户查询添加到聊天历史中。
    messages.append({'role': 'user', 'content': query})
    response = []
    for response in bot.run(messages=messages):
        # 流式输出。
        print('机器人回复:')
        pprint.pprint(response, indent=2)
    # 将机器人回复添加到聊天历史中。
    messages.extend(response)

除了使用内置的 agent 实现(如 class Assistant)外,您还可以通过继承 class Agent 来开发自己的 agent 实现。 请参考 examples 目录以获取更多使用示例。

常见问题

你们有函数调用(又称工具调用)吗?

有的。LLM 类提供了函数调用功能。此外,一些 Agent 类也是基于函数调用能力构建的,例如 FnCallAgent 和 ReActChat。

如何对包含 100 万个 token 的超长文档进行问答?

我们发布了一个快速 RAG 解决方案,以及一个耗时但有竞争力的 agent,用于对超长文档进行问答。它们在两个具有挑战性的基准测试中表现优于原生长上下文模型,同时效率更高,并在涉及 100 万 token 上下文的单一"大海捞针"压力测试中表现完美。有关技术细节,请参阅博客

应用:BrowserQwen

BrowserQwen 是基于 Qwen-Agent 构建的浏览器助手。详情请参阅其文档

免责声明

代码解释器并未进行沙箱隔离,它会在您自己的环境中执行代码。请不要要求 Qwen 执行危险任务,也不要直接将代码解释器用于生产目的。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号