Project Icon

mixtral-offloading

Mixtral-8x7B模型高效推理的实现方法

该项目实现了Mixtral-8x7B模型的高效推理,使用混合量化和MoE卸载策略。通过HQQ量化方案分别处理注意力层和专家层,使模型适应GPU和CPU内存。每层的专家单独卸载并在需要时重新加载到GPU,活跃专家存储在LRU缓存中以减少GPU-RAM通信。更多技术细节和结果请参阅技术报告。

Replete-LLM-V2.5-Qwen-32b-GGUF - 量化模型文件下载指南,通过选择适合的文件优化性能
GithubHuggingfaceReplete-LLM-V2.5-Qwen-32b嵌入输出权重开源项目文本生成模型视觉处理量化
该项目使用llama.cpp工具进行模型量化,提供多种Replete-LLM-V2.5-Qwen-32b模型文件下载选项。每种文件类型均说明其特性,如高质量和性能等,并适应不同硬件环境,以帮助用户根据需求优化模型质量或速度。文件适用于多种RAM和VRAM配置,便于在不同系统中实现优异性能。
rtp-llm - 大型语言模型推理加速引擎
CUDAGithubrtp-llm多模态输入大语言模型开源项目量化
rtp-llm是阿里巴巴基础模型推理团队开发的大型语言模型推理加速引擎,广泛应用于支持淘宝问答、天猫、菜鸟网络等业务,并显著提升处理效率。该项目基于高性能CUDA技术,支持多种权重格式和多模态输入处理,跨多个硬件后端。新版本增强了GPU内存管理和设备后端,优化了动态批处理功能,提高了用户的使用和体验效率。
MegEngine - 高效、可扩展且易于使用的深度学习框架
GithubMegEngine开源项目深度学习框架硬件需求训练与推理高性能
MegEngine是一个高效、可扩展且易于使用的深度学习框架,具有统一的训练和推理框架、低硬件要求和跨平台高效推理的三大关键特性。支持x86、Arm、CUDA、RoCM等多种平台,兼容Linux、Windows、iOS、Android等系统。通过DTR算法和Pushdown内存规划器,大幅降低GPU内存使用。适用于模型开发到部署的各个环节,致力于构建开放友好的AI社区。
Mix-of-Show - 去中心化低秩适应技术实现扩散模型的多概念定制
AI绘图GithubMix-of-Show低秩适应多概念定制开源项目扩散模型
Mix-of-Show是一种扩散模型多概念定制技术,通过去中心化低秩适应实现单概念和多概念融合。它可生成高质量动漫和真实人物图像,无需正则化数据集,支持区域可控的多概念采样。该项目开源了训练和推理代码,为扩散模型个性化提供新方案。
meditron-7B-AWQ - 通过低比特量化方法优化变换器模型性能
GithubHuggingfaceMeditron 7B医疗开源开源项目推理模型量化
此项目提供EPFL LLM团队的Meditron 7B模型的AWQ量化文件,采用高效的4位低比特量化方法,在提升变换器推理速度的同时保证质量。兼容多种平台和工具,如Text Generation Webui、vLLM、Hugging Face Text Generation Inference及Transformers。
ppl.nn - 用于 AI 推理的高性能深度学习推理引擎
GithubONNXOpenMMLabPPLNN卷积神经网络开源项目深度学习推理
PPLNN是一款高效的深度学习推理引擎,兼容各种ONNX模型,并对OpenMMLab进行了优化。其最新的LLM引擎包括闪存注意力、分裂K注意力、动态批处理和张量并行等功能,并支持INT8分组和通道量化。项目发布了多个LLM模型,如LLaMA、ChatGLM和Baichuan,并提供详细的构建和集成指南。
BEVFormer_tensorrt - BEVFormer和BEVDet的TensorRT高效部署方案
BEV 3D DetectionGPU内存优化GithubTensorRT开源项目推理加速量化
本项目实现BEVFormer和BEVDet在TensorRT上的高效部署,支持FP32/FP16/INT8推理。通过优化TensorRT算子,BEVFormer base模型推理速度提升4倍,模型大小减少90%,GPU内存节省80%。同时支持MMDetection中2D目标检测模型的INT8量化部署。项目提供详细基准测试,展示不同配置下的精度和速度表现。
airllm - 在单个4GB GPU上运行70B大模型,无需量化和蒸馏
AirLLMGithubLlama3.1大语言模型开源项目推理优化模型压缩
AirLLM优化了推理内存使用,使70B大模型能在单个4GB GPU上运行,无需量化、蒸馏或剪枝。同时,8GB显存可运行405B的Llama3.1。支持多种模型压缩方式,推理速度可提升至3倍。兼容多种大模型,提供详细配置和案例,支持在MacOS上运行。
llama.onnx - LLaMa和RWKV模型的ONNX实现及独立演示,支持多设备部署
GithubLLaMaRWKVonnx模型开源项目推理量化
此项目提供LLaMa-7B和RWKV-400M的ONNX模型与独立演示,无需torch或transformers,适用于2GB内存设备。项目包括内存池支持、温度与topk logits调整,并提供导出混合精度和TVM转换的详细步骤,适用于嵌入式设备和分布式系统的大语言模型部署和推理。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号