Project Icon

mixtral-offloading

Mixtral-8x7B模型高效推理的实现方法

该项目实现了Mixtral-8x7B模型的高效推理,使用混合量化和MoE卸载策略。通过HQQ量化方案分别处理注意力层和专家层,使模型适应GPU和CPU内存。每层的专家单独卸载并在需要时重新加载到GPU,活跃专家存储在LRU缓存中以减少GPU-RAM通信。更多技术细节和结果请参阅技术报告。

Midnight-Miqu-70B-v1.5-i1-GGUF - Midnight-Miqu-70B-v1.5量化模型:优化AI实施的多样化策略
GithubHuggingfaceMidnight-Miqu-70B-v1.5变压器库合并工具开源项目模型模型使用量化
此项目提供Midnight-Miqu-70B-v1.5的多种GGUF量化文件,采用权重和imatrix量化,支持多种规格和类型如IQ1至IQ4及Q5、Q6,适应速度、质量和空间需求的平衡。用户可参考TheBloke的README获取操作指南,适合寻求优化AI模型效率的开发者,助力高效机器学习模型部署。
llama-moe - 专家混合模型,支持持续预训练
GithubLLaMALLaMA-MoEMoESheared LLaMASlimPajama开源项目
LLaMA-MoE是基于LLaMA和SlimPajama的开源专家混合模型。通过将LLaMA的FFN划分为稀疏专家并加入top-K门控,模型在优化的数据采样权重下进行持续预训练。特点包括轻量化、多种专家构建方法、多种门控策略和快速预训练,适合部署和研究。提供详细的安装指南和技术文档,帮助用户快速使用并评估模型性能。
NVLM-D-72B-nf4 - 多模态模型NF4量化与性能优化研究
GPU内存GithubHuggingfaceNVLM-D-72B图像文本生成开源项目模型模型转换量化
NVLM-D-72B模型NF4量化转换项目利用BitsAndBytes技术实现双重量化,旨在优化性能。目前纯文本处理表现出色,但图像处理功能仍需完善。项目优化了modeling_intern_vit.py文件,提高了量化模块兼容性。模型运行需48GB以上显存,遵循CC BY-NC 4.0许可。该项目为探索大型多模态模型量化提供了宝贵经验。
inferflow - 为大语言模型提供高效灵活的推理解决方案
GithubInferflow大语言模型开源项目推理引擎模型服务量化
Inferflow是一款功能强大的大语言模型推理引擎,支持多种文件格式和网络结构。它采用3.5位量化和混合并行推理等创新技术,提高了推理效率。用户通过修改配置文件即可部署新模型,无需编写代码。Inferflow支持GPU/CPU混合推理,为模型部署提供灵活选择。该项目为研究人员和开发者提供了高效易用的LLM推理工具。
Meta-Llama-3-70B-Instruct-abliterated-v3.5-IMat-GGUF - 提升量化效率及IMatrix集成以增强文本生成性能
GithubHuggingfaceIMatrixMeta-Llama-3-70B-Instruct-abliterated-v3.5开源项目文本生成模型量化
本项目应用Llama.cpp的量化技术结合IMatrix数据集,对Meta-Llama-3-70B-Instruct-abliterated-v3.5模型进行优化。支持BF16到Q2_K等多种量化格式,用户可根据需求选择下载不同版本,适用于多种文本生成场景。IMatrix集成提升了低比特位的性能表现,适合现代高效计算需求。提供全面的下载指南和FAQ,帮助用户有效地理解和使用文件,实现文本生成任务的高效推理。
switch-base-128 - 探索语言模型优化与参数缩放的最新进展
GithubHuggingfaceSwitch Transformers专家开源项目模型混合专家蒙面语言建模语言模型
Switch Transformers采用专家混合(MoE)模型架构,针对掩码语言模型(MLM)任务进行训练。该模型使用稀疏多层感知器层取代传统的前馈层,提升了训练效率。在Colossal Clean Crawled Corpus上完成了高达万亿参数的预训练,表现出优于T5的微调效果,并实现了相较于T5-XXL模型的四倍加速,适合需要高效语言模型的应用。
Megatron-LM - 优化GPU训练技术 加速大规模Transformer模型
GPU优化GithubMegatron-CoreMegatron-LM分布式训练大语言模型开源项目
Megatron-LM框架利用GPU优化技术实现Transformer模型的大规模训练。其Megatron-Core组件提供模块化API和系统优化,支持自定义模型训练。该项目可进行BERT、GPT、T5等模型预训练,支持数千GPU分布式训练百亿参数级模型,并提供数据预处理、模型评估和下游任务功能。
DiT-MoE - 16亿参数规模的稀疏化扩散Transformer模型
DiT-MoEGithub图像生成开源项目扩散模型深度学习混合专家
DiT-MoE项目采用混合专家模型,将扩散Transformer扩展至16亿参数规模。作为扩散Transformer的稀疏版本,DiT-MoE在保持与密集网络相当性能的同时,实现了高效的推理。项目提供PyTorch实现、预训练权重和训练/采样代码,并包含专家路由分析和Hugging Face检查点。通过混合专家方法,DiT-MoE在模型扩展和推理优化方面展现出显著优势。
mistral-inference - 高效部署和使用Mistral模型的实用指南
AI模型GithubMistral Inference代码安装使用指南开源项目模型下载
该项目提供了简洁高效的代码库,支持Mistral 7B、8x7B和8x22B模型的部署和运行。通过命令行界面和Python接口,可以方便地下载、安装和测试模型,并与其互动。项目包含详细的使用示例和多GPU环境的部署指南,为开发者和研究人员提供了可靠的支持。
OmniQuant - 简便高效的大型语言模型量化技术
GithubLLaMAOmniQuant大语言模型开源项目量化高效QAT
OmniQuant是一种高效的量化技术,支持多种大型语言模型(LLM)的权重和激活量化,包括LLaMa和OPT等。其实现了4位及更低精度的权重量化,并通过MLC-LLM优化在多种硬件设备上的推理性能和内存占用。此外,项目还支持Mixtral和Falcon模型的压缩应用,大幅降低内存需求,提高运行效率。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号