Project Icon

Mistral-7B-OpenOrca-AWQ

高效4比特量化,实现多用户并发推理

项目提供OpenOrca的Mistral 7B模型的AWQ版本。AWQ是一种4比特的低比特量化方法,在Transformers推理中更快速,与GPTQ相比具有效率优势。AWQ支持在多用户环境中实现高效的并发推理,有助于使用更小的GPU进行部署,减少整体成本,尽管总体吞吐量仍略低于未量化模型。

Wizard-Vicuna-7B-Uncensored-GPTQ - 支持多平台推理的高效GPTQ模型文件
GPTQGithubHuggingfaceWizard Vicuna 7B人工智能助手开源项目未过滤模型量化模型
项目提供多样的GPTQ模型文件,支持多种推理配置和硬件平台需求。通过多种量化参数优化,提升推理质量及多样化VRAM使用。基础模型由Eric Hartford创建,专为NLP应用而设计,无需内容审核,用户可自由定制对齐方式,适用广泛领域的AI助手开发。
Qwen2.5-7B-bnb-4bit - 采用4bit量化技术加速Qwen2.5-7B模型并降低70%内存占用
GithubHuggingfaceQwen2.5Unsloth大语言模型开源项目模型模型微调深度学习
基于Qwen2.5-7B的量化优化版本,通过4bit量化技术将内存占用降低70%。模型拥有76亿参数,具备128K上下文长度和29种语言处理能力,支持编码、数学运算和长文本生成等功能。该版本在保持原有性能的同时实现轻量化部署,可用于后续的模型微调与定制开发。
Qwen2.5-14B_Uncensored_Instruct-GGUF - 高性能量化版本适用于多种设备和场景
GGUFGithubHuggingfaceQwen2.5-14B开源项目文本生成模型模型压缩量化
此项目为Qwen2.5-14B无审查指令模型提供多种量化版本,涵盖从29.55GB的F16到5.36GB的IQ2_M等不同规格。量化类型包括Q8_0、Q6_K、Q5_K、Q4_K、Q3_K和IQ系列,适应不同硬件配置需求。项目详细介绍了各版本特点、文件大小和适用场景,并提供选择指南和下载方法,方便用户根据设备性能选择合适版本。
Qwen2.5-7B-Instruct-GGUF - Qwen2.5-7B-Instruct的多样化量化方案增强模型适应性
ARM芯片GithubHuggingfaceQwen2.5-7B-Instruct开源项目性能优化模型训练数据集量化
项目采用llama.cpp的最新量化方案对Qwen2.5-7B-Instruct模型进行优化,提供灵活的量化格式以匹配各类硬件环境。更新的上下文长度管理与先进的分词器,无论选择传统的Q-K量化还是新兴的I-quant,各种档次的文件都能帮助设备实现性能与速度的平衡。尤其是对ARM架构的专门优化,即便在低RAM环境下,用户也能凭借有限的资源获得可行的使用体验。
OmniQuant - 简便高效的大型语言模型量化技术
GithubLLaMAOmniQuant大语言模型开源项目量化高效QAT
OmniQuant是一种高效的量化技术,支持多种大型语言模型(LLM)的权重和激活量化,包括LLaMa和OPT等。其实现了4位及更低精度的权重量化,并通过MLC-LLM优化在多种硬件设备上的推理性能和内存占用。此外,项目还支持Mixtral和Falcon模型的压缩应用,大幅降低内存需求,提高运行效率。
Mistral-7B-v0.1-sharded - 模型带来更高效的文本生成性能
GithubHugging FaceHuggingfaceMistral 7Btransformer模型大语言模型开源项目模型预训练
Mistral-7B-v0.1是一个预训练的生成文本模型,拥有70亿参数,采用先进的变压器架构,并在多项基准测试中表现优于Llama 2 13B。该模型分片为2GB,以减少RAM需求,适合在资源有限的环境中应用,但不包含内容监管功能。若遇到'mistral'错误,通过安装transformers源代码可解决。
dolphin-2.2.1-mistral-7B-GGUF - 支持多平台GPU加速的量化格式,用于大语言模型的创新解决方案
Dolphin 2.2.1 Mistral 7BGithubHuggingfacePython库开源项目模型模型文件硬件加速量化
Dolphin 2.2.1 Mistral 7B采用GGUF量化格式,这一创新方案取代了已弃用的GGML。借助Massed Compute的硬件,该模型可实现高效的GPU加速和优质存储,并兼容多个web UI和专业工具,如llama.cpp和LM Studio,以满足多平台的深度学习需求。
MIstral-QUantized-70b_Miqu-1-70b-iMat.GGUF - 优质法语对话能力的70B模型,适用于大容量VRAM
GithubHuggingfaceMiqu 1 70bMistral AI上下文大小开源项目模型法语量化
Miqu 1 70b是Mistral Medium Alpha的一个模型,由Mistral AI公司开发,适合法语使用者。该模型在法语对话中表现出色,智能性能与精调的Llama 2 70b相当,并倾向于避免过拟合。Miqu提供多种量化格式,Q4_K_S和Q3_K_M在48GB和36GB VRAM上支持完全卸载,满足大容量VRAM用户需求。虽然Miqu与CodeLlama 70b有相同的100万theta值,但在实验中证明其最大上下文能力为32k,相较于4k更具优势,并提供较低的周转率。
Qwen2.5-Coder-7B-Instruct-GGUF - 深度学习模型的多规格量化版本适配不同硬件和性能要求
GGUFGithubHuggingfaceQwen2.5-Coder-7B-Instructllama.cpp大语言模型开源项目模型量化
本项目为Qwen2.5-Coder-7B-Instruct模型提供了从15GB到2.78GB的多种量化版本。采用llama.cpp最新技术,包括K-quants和I-quants两种量化方案,并针对ARM架构优化。用户可根据设备内存容量和性能需求选择适合版本。各版本保留原始模型核心功能,适用于多种部署场景。
starcoder2-7b-AWQ - AWQ量化的StarCoder2代码生成模型
GithubHuggingfaceStarCoder2代码生成开源项目机器学习模型模型深度学习程序开发
StarCoder2-7B-AWQ是经AWQ量化的大规模代码生成模型。它支持17种编程语言,采用分组查询注意力机制,具有16,384个token的上下文窗口。该模型在多项基准测试中表现优异,能生成高质量代码。量化后显著降低内存占用,便于部署应用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号