Project Icon

NemoMix-Unleashed-12B-GGUF

NemoMix-Unleashed-12B模型的多种量化版本

NemoMix-Unleashed-12B-GGUF项目提供了多种NemoMix-Unleashed-12B模型的量化版本。这些版本采用llama.cpp进行处理,精度范围从F16到IQ2_M,文件大小在4.44GB至24.50GB之间。项目详细介绍了各量化类型、文件大小及使用建议,便于用户根据硬件选择合适版本。同时提供下载指南和性能比较资料,方便模型部署和评估。

llm-awq - 激活感知权重量化技术实现大语言模型高效压缩与加速
AWQGithubLLM开源项目模型量化视觉语言模型边缘设备
AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。
QuantResearch - 定量分析、策略和回测
GithubQuantResearch开源项目投资组合优化时间序列预测机器学习深度强化学习
该项目提供丰富的量化研究资源,涵盖策略回测、机器学习和深度强化学习应用,以及实盘交易演示。资源内容包括投资组合优化、风险值评估、线性回归(经典、贝叶斯、MCMC、卡尔曼滤波、Tensorflow)、均值回归、协整对冲交易、隐马尔科夫链、RNN股票预测、主成分分析、ARIMA和GARCH模型、Fama-French三因子模型等。此外,项目还提供在线资源和教程,帮助用户深入理解和应用量化研究技术。
Chinese-Mixtral - 使用Sparse MoE架构的中文Mixtral模型
Chinese-MixtralGithubMixtral大模型量化开源项目指令精调稀疏混合专家模型
模型基于Mistral.ai的Mixtral模型开发,经过中文增量训练与指令精调,具备处理长文本(原生支持32K上下文,实测可达128K)的能力。包括中文Mixtral基础模型与指令模型,显著提升数学推理和代码生成性能。通过llama.cpp进行量化推理,最低仅需16G内存。开源提供代码、训练脚本与详细教程,支持多种推理和部署工具,适合个人电脑本地快速部署量化模型。
llm-compressor - 开源大型语言模型压缩优化库
GithubHugging FaceLLM Compressorvllm开源项目模型优化量化
llm-compressor是一个专注于大型语言模型优化和压缩的开源库。它提供全面的量化算法集,支持权重和激活量化,并与Hugging Face模型和仓库无缝集成。该项目采用safetensors文件格式,确保与vllm兼容,同时通过accelerate支持大规模模型处理。llm-compressor涵盖多种量化格式和算法,包括激活量化、混合精度和稀疏化技术,为模型优化提供灵活多样的选择。
KVQuant - 提升长上下文推理效率的KV缓存量化方法
GithubKVQuantLLaMA-7B低精度量化大模型开源项目长上下文长度推断
KVQuant通过精确的低精度量化技术显著提升长上下文长度推理的效率。其创新包括每通道的RoPE前关键量化和非均匀量化,以应对不同LLM中缓存的KV值模式。KVQuant支持在单个A100-80GB GPU上进行LLaMA-7B模型的1M上下文长度推理,甚至在8-GPU系统上支持长达10M上下文长度,从而减少推理过程中KV缓存的内存瓶颈,并通过并行topK支持和注意力感知量化等多项改进提升推理性能。
llama.onnx - LLaMa和RWKV模型的ONNX实现及独立演示,支持多设备部署
GithubLLaMaRWKVonnx模型开源项目推理量化
此项目提供LLaMa-7B和RWKV-400M的ONNX模型与独立演示,无需torch或transformers,适用于2GB内存设备。项目包括内存池支持、温度与topk logits调整,并提供导出混合精度和TVM转换的详细步骤,适用于嵌入式设备和分布式系统的大语言模型部署和推理。
NeMo - 人工智能训练和部署平台
GithubNVIDIA NeMo多模态模型大语言模型开源项目热门生成式AI语音识别
NeMo框架是NVIDIA开发的一款云原生生成式AI框架,专为研究人员和使用PyTorch的开发者设计,支持大型语言模型、多模态模型、自动语音识别等多个领域。该框架能够利用现有代码和预训练的模型检查点,帮助用户高效创建和定制新的生成式AI模型。通过广泛的教程和文档,用户可以轻松开始使用NeMo框架,无论是在任何云端还是本地环境中。
MINI_LLM - 完整中文大语言模型训练流程实践
DPOGithubMini-llm大模型开源项目微调预训练
MINI_LLM项目展示了完整的中文大语言模型训练流程,涵盖预训练、SFT指令微调和DPO优化阶段。该项目基于QWEN模型,利用多种数据集训练出1.4B参数规模的模型。项目详细介绍了数据处理方法、提供训练脚本,并包含多GPU训练指南,为中文大语言模型开发提供了实用参考。
Baichuan-13B - 包含130亿参数和出色Benchmark性能的大规模开源语言模型
Baichuan-13BGithub对齐模型开源模型开源项目百川智能量化版本
Baichuan-13B是一个包含130亿参数的开源模型,支持中英双语,并在多项Benchmark测试中表现优异。它具有更大的参数量和数据规模,更高效的推理能力,且完全免费商业使用。通过简单的代码即可部署,量化版本大大降低了部署门槛,广泛适用于学术研究和商业应用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号