Project Icon

rtp-llm

大型语言模型推理加速引擎

rtp-llm是阿里巴巴基础模型推理团队开发的大型语言模型推理加速引擎,广泛应用于支持淘宝问答、天猫、菜鸟网络等业务,并显著提升处理效率。该项目基于高性能CUDA技术,支持多种权重格式和多模态输入处理,跨多个硬件后端。新版本增强了GPU内存管理和设备后端,优化了动态批处理功能,提高了用户的使用和体验效率。

rtp-llm 项目简介

项目背景

rtp-llm 是由阿里巴巴的基础模型推理团队开发的大型语言模型(LLM)推理加速引擎。它被广泛应用于阿里巴巴集团内的多个业务领域,如淘宝、天猫、闲鱼、菜鸟、阿里地图、饿了么、全球速卖通以及Lazada等。rtp-llm 项目属于 havenask 的子项目。

项目新闻

  • 2024年6月更新:发布全新的 rtp-llm 版本,采用 C++ 重构的调度和批处理框架,具备完整的 GPU 内存管理和分配跟踪功能,并引入新的设备后端。
  • 2024年6月目标:正在与硬件制造商紧密合作,计划支持多个硬件后端,包括 AMD ROCm、Intel CPU 和 ARM CPU,敬请期待。

主要特点

经过生产验证

rtp-llm 已在众多大型语言模型应用场景中使用,包括但不限于:

高性能

  • 利用高性能 CUDA 核心,如 PagedAttention、FlashAttention、FlashDecoding 等
  • 实现 WeightOnly INT8 量化,并在加载时自动量化;支持 WeightOnly INT4 量化
  • 自适应 KVCache 量化
  • 在框架层面优化动态批处理开销
  • 针对 V100 GPU 进行专门优化

灵活易用

  • 与 HuggingFace 模型无缝集成,支持多种权重格式如 SafeTensors、Pytorch 和 Megatron
  • 单个模型实例支持多个 LoRA 服务部署
  • 处理多模态输入(图像与文本结合)
  • 支持多机/多 GPU 张量并行
  • 支持 P-tuning 模型

先进的加速技术

  • 支持裁剪后的不规则模型加载
  • 多轮对话的上下文前缀缓存
  • 系统提示缓存
  • 推测性解码
  • 高级并行化策略的 Medusa

如何使用

系统要求

  • 操作系统:Linux
  • Python 版本:3.10
  • NVIDIA GPU:计算能力 7.0 或更高(如 RTX20xx、RTX30xx、RTX40xx、V100、T4、A10/A30/A100、L4、H100 等)

启动示例

使用 Docker
cd rtp-llm/docker
sh ./create_container.sh <CONTAINER_NAME> <IMAGE_NAME>
sh CONTAINER_NAME/sshme.sh

cd ../
# 启动 HTTP 服务
TOKENIZER_PATH=/path/to/tokenizer CHECKPOINT_PATH=/path/to/model MODEL_TYPE=your_model_type FT_SERVER_TEST=1 python3 -m maga_transformer.start_server
# 请求服务
curl -XPOST http://localhost:8088 -d '{"prompt": "hello, what is your name", "generate_config": {"max_new_tokens": 1000}}'
使用 WHL
cd rtp-llm
pip3 install -r ./open_source/deps/requirements_torch_gpu.txt
pip3 install maga_transformer-0.1.9+cuda118-cp310-cp310-manylinux1_x86_64.whl

cd ../
# 启动 HTTP 服务
TOKENIZER_PATH=/path/to/tokenizer CHECKPOINT_PATH=/path/to/model MODEL_TYPE=your_model_type FT_SERVER_TEST=1 python3 -m maga_transformer.start_server
# 请求服务
curl -XPOST http://localhost:8088 -d '{"prompt": "hello, what is your name", "generate_config": {"max_new_tokens": 1000}}'

常见问题

  1. libcufft.so 问题:检查 CUDA 和 rtp-llm 版本是否匹配。
  2. libth_transformer.so 问题:确认当前路径不是 rtp-llm,以避免使用相对路径包。
  3. Bazel 构建超时:更改 pip 镜像或手动安装依赖。
  4. Curl 错误:更新 tiktoken 至 0.7.0。

支持的模型列表

大型语言模型(LLM)

  • Aquila 和 Aquila2
  • Baichuan 和 Baichuan2
  • Bloom
  • ChatGlm
  • Falcon
  • GptNeox
  • GPT BigCode
  • LLaMA 和 LLaMA-2
  • MPT
  • Phi
  • Qwen
  • InternLM
  • Gemma
  • Mixtral

大型语言模型 + 多模态

  • LLAVA
  • Qwen-VL

联系我们

  • 钉钉交流群 钉钉群二维码
  • 微信交流群 微信群二维码
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号