Project Icon

qwen

Qwen模型在Habana Gaudi处理器上的配置与训练概述

通过Optimum Habana接口,在Habana Gaudi处理器上实现Qwen模型的高效加载和训练。该接口简化了单个和多个HPU设置下的训练流程,并支持自定义AdamW优化器、梯度剪辑和PyTorch混合精度功能。用户可以通过配置GaudiConfig文件以及特定的HPU训练参数,利用语言模型示例代码,以充分发挥HPUs的性能。更多信息和详细用例请参考Hugging Face的文档及GitHub资源。

ai-hub-models - 一系列性能优化的机器学习模型
GithubPythonQualcomm AI Hub开源项目性能优化机器学习模型设备部署
Qualcomm® AI Hub Models提供了一系列性能优化的机器学习模型,适用于视觉、语音、文本和生成式AI。这些模型可以在Qualcomm设备上高效部署,并提供开源的量化、优化和部署指南。用户可以通过Hugging Face访问模型,并通过示例应用程序在本地设备上部署。支持多种操作系统和计算单元,兼容多款Snapdragon芯片,并提供详细的性能指标和文档。
Upstage-Llama-2-70B-instruct-v2-AWQ - 先进的低比特量化技术优化文本生成模型
GithubHuggingfaceLlama 2 70B Instruct v2Upstage开源项目文本生成模型量化
Upstage通过AWQ模型实现高效的4比特量化,相较于GPTQ提供更快的推理速度。AWQ支持高吞吐量的多用户服务器环境,可在更小的GPU上运行,从而降低部署成本。此外,模型在多项基准测试中表现卓越,能够在单个48GB GPU上运行70B模型,便于快速部署。了解更多关于该模型的性能和应用场景。
MPP-LLaVA - 基于QwenLM的多模态并行系统,支持多轮对话及视频交流
GithubMPPQwen-Nextsft数据多轮对话开源项目流水线并行视频对话
MPP-Qwen-Next项目基于QwenLM,提供多模态流水线并行系统,支持多轮对话、视频对话和多图对话功能。借助DeepSpeed Pipeline Parallel技术,实现高效的单图、多图及视频推理。项目包含详细的预训练和指令微调数据,适用于多种对话场景,并专为大规模显卡配置进行了优化。
gemma-2-9b-it-abliterated-GGUF - 文本生成性能优化的多种量化方法
ARM芯片GithubHuggingfacegemma-2-9b-it-abliterated嵌入/输出权重开源项目文本生成模型量化
该项目使用llama.cpp进行gemma-2-9b-it-abliterated模型的多种量化实现,能够适应不同的内存和硬件需求。用户可根据设备的RAM和GPU VRAM选择适合的模型文件大小。项目支持多种量化格式,如Q5_K_M和IQ3_M等,以满足不同的性能需求。通过huggingface-cli,用户可以轻松下载特定量化模型,并实现高效推理。建议在LM Studio中运行,并分享使用体验,以帮助优化模型质量和性能。
EfficientQAT - 高效量化训练技术助力大型语言模型压缩
EfficientQATGithubPyTorch大语言模型开源项目模型压缩量化训练
EfficientQAT是一种针对大型语言模型的量化训练技术。该技术采用两阶段训练方法,包括分块训练所有参数和端到端训练量化参数,在压缩模型大小的同时保持性能。EfficientQAT支持GPTQ和BitBLAS等多种量化格式,已成功应用于Llama和Mistral等模型系列,有效降低模型存储需求,为大型语言模型的部署提供了实用方案。
rwkv-4-169m-pile - RNN与Transformer的高性能结合:高效文本生成
GPUGithubHuggingfaceRWKV人工神经网络开源项目文本生成模型转换脚本
RWKV项目由Bo Peng主导,结合RNN和Transformer的优势,提供强大的LLM性能,支持“无限”上下文长度、快速推理和节省显存。该模型支持并行训练,如GPT,可用于高效文本生成,并提供详细的使用和部署指南。项目中提供的多种硬件运行方案,使得用户能够轻松部署在不同环境中,享有快速且节能的文本生成体验,符合现代AI开发需求。
optimum - 提升模型在不同硬件上的训练和运行效率的一系列优化工具
GithubHugging Face OptimumONNX RuntimeOpenVINOTransformer开源项目训练模型
Optimum扩展了Transformers和Diffusers,提供了一系列优化工具,提升模型在不同硬件上的训练和运行效率。支持的硬件平台包括ONNX Runtime、Intel Neural Compressor、OpenVINO、NVIDIA TensorRT-LLM、AMD Instinct GPUs、AWS Trainium & Inferentia、Habana Gaudi处理器和FuriosaAI。Optimum支持多种优化技术,如图优化、动态量化、静态量化和量化感知训练,配有详尽的文档和示例代码,帮助用户导出和运行优化后的模型。
aya-23-8B-GGUF - 更精细的文本生成量化选项分析
GithubHuggingfacetransformers开源项目文本生成模型质心量化
项目使用最先进的llama.cpp imatrix量化技术,支持多语言文本生成。多种量化格式,例如Q8_0和紧凑型IQ系列,提供应用的灵活性。用户依据硬件选择文件,以优化性能。创新量化处理为多语言文本生成提供了更高效的实现路径。
quantized-models - 提供多源量化模型以提升大语言模型推理效率
GithubHuggingfacequantized-modelstransformers大型语言模型开源项目文本生成推理模型量化模型
quantized-models项目整合了多种来源的量化模型,旨在提高大语言模型的推理效率。模型支持者包括TheBloke、LoneStriker、Meta Llama等,提供gguf、exl2格式的支持。用户可通过transformers库便捷地进行文本生成,这些模型按现状发布,需遵循其各自的许可协议。
tiny-dummy-qwen2 - 面向开发者的中文自然语言处理工具
GithubHuggingfaceMIT开源开源项目模型版权许可证软件
tiny-dummy-qwen2是一个开源的中文自然语言处理工具,旨在简化中文NLP应用的开发和部署过程。该项目采用MIT许可证,为开发者提供了灵活的使用和分发权限。通过降低技术门槛,tiny-dummy-qwen2使得各类开发者都能够更便捷地实现中文自然语言处理相关的创新应用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号