Project Icon

Mixture-of-depths

Transformer语言模型的动态计算资源分配方法

Mixture-of-depths是一种Transformer语言模型优化方法,通过动态分配计算资源提高性能。该项目提供Mistral、Mixtral、LLama等多个主流模型的非官方实现。项目支持高级API接口,兼容transformers库,便于研究应用。这种方法旨在提升模型推理效率和灵活性,同时保持输出质量。

llama-moe - 专家混合模型,支持持续预训练
GithubLLaMALLaMA-MoEMoESheared LLaMASlimPajama开源项目
LLaMA-MoE是基于LLaMA和SlimPajama的开源专家混合模型。通过将LLaMA的FFN划分为稀疏专家并加入top-K门控,模型在优化的数据采样权重下进行持续预训练。特点包括轻量化、多种专家构建方法、多种门控策略和快速预训练,适合部署和研究。提供详细的安装指南和技术文档,帮助用户快速使用并评估模型性能。
zephyr-sft-bnb-4bit - 通过Unsloth技术快速优化Mistral等模型的内存使用
GithubHuggingfaceMistralUnsloth开源项目微调性能优化模型节省内存
该项目使用Unsloth技术实现了Mistral、Gemma和Llama等模型的快速微调,显著降低内存使用率。用户可以通过简单的操作获得优化后的模型,支持导出为GGUF、vLLM或上传至Hugging Face。此方法特别适用于内存要求高的模型,并免费提供初学者友好的工具。
Llama-3.2-3B - 利用优化技术实现提速和内存节省的开源语言模型项目
GithubHuggingfaceLlama 3.2多语言处理大语言模型开源项目模型模型微调算力优化
这是一个基于Unsloth技术的大型语言模型优化项目。支持8种官方语言,采用改进的transformer架构和GQA技术。训练速度提升2.4倍,内存使用减少58%。提供Google Colab环境,支持对话、文本补全等场景的模型微调,适合各级用户。该项目基于Meta的原始模型,遵循社区许可协议。
Mistral-7B-v0.3 - 词汇扩展提升语言模型性能
GithubHugging FaceHuggingfaceMistral-7B-v0.3transformers大语言模型开源项目模型词汇扩展
Mistral-7B-v0.3版本引入了32768项扩展词汇,提升了语言模型的表现能力。结合mistral-inference使用,支持灵活的文本生成和定制处理。该版本尚未具备完善的安全机制,计划通过与社区合作,探索在输出需调节的环境中实现安全部署。
quantized-models - 提供多源量化模型以提升大语言模型推理效率
GithubHuggingfacequantized-modelstransformers大型语言模型开源项目文本生成推理模型量化模型
quantized-models项目整合了多种来源的量化模型,旨在提高大语言模型的推理效率。模型支持者包括TheBloke、LoneStriker、Meta Llama等,提供gguf、exl2格式的支持。用户可通过transformers库便捷地进行文本生成,这些模型按现状发布,需遵循其各自的许可协议。
TimeMixer - 多尺度混合技术推动时间序列预测新突破
GithubICLRMLP架构TimeMixer多尺度混合开源项目时间序列预测
TimeMixer是一种基于MLP架构的时间序列预测模型,通过多尺度混合技术实现长短期预测的性能突破。该模型利用Past-Decomposable-Mixing和Future-Multipredictor-Mixing模块处理多尺度时间序列,在多个基准数据集上展现出优异性能。TimeMixer不仅预测精度高,还具备良好的运行效率,适用于多种要求高效预测的应用场景。
LLaMA-Pro - 具有块扩展的渐进式 LLaMA
GPT模型GithubLLaMA ProMetaMath开源项目深度学习自然语言处理
LLaMA-Pro项目通过模块扩展实现渐进式改进,显著提升算法性能。开源代码和模型包括LLaMA-Pro-8B和Mistral-Pro-8B-v0.1,后者在多个基准测试中表现优异,尤其在代码与数学能力方面超越主流型号。项目还提供了本地执行方法和训练代码。在ACL 2024大会上,项目论文已被接收,展示出其学术和实用价值。同时,LLaMA-Pro项目提供评估工具和预训练样例,支持开发者高效开发。
Mixtral-8x7B-v0.1-GGUF - Mixtral模型的多平台兼容量化文件
GithubHuggingfaceMistral AIMixtral 8X7B开源项目推理模型模型格式量化
Mixtral GGUF模型文件采用新量化格式,支持2至8位模型,适用于多平台的CPU和GPU推理。文件兼容llama.cpp、KoboldCpp和LM Studio等平台。由Mistral AI创建,Apache-2.0协议许可,支持多语言,高效推理。
SqueezeLLM - 硬件资源优化下的大语言模型量化服务
GithubSqueezeLLM内存优化大语言模型开源项目模型压缩量化
SqueezeLLM通过密集与稀疏量化方法降低大语言模型的内存占用并提升性能,将权重矩阵拆分为易量化的密集组件和保留关键部分的稀疏组件,实现更小内存占用、相同延迟和更高精度。支持包括LLaMA、Vicuna和XGen在内的多个热门模型,提供3位和4位量化选项,适用于不同稀疏度水平。最新更新涵盖Mistral模型支持和自定义模型量化代码发布。
llama-3-merged-linear - 无训练过程的顶尖LLM模型合并方法利用Mergekit工具
GitHubGithubHuggingFaceHuggingfaceLLM模型合并YouTube教程transformers开源项目模型
探索合并llama-3顶尖模型创建更高排名LLM模型,无需额外训练。该项目利用Mergekit实现模型无缝合并,面向关注开源项目和深度学习的用户。提供YouTube视频教程和GitHub代码支持,帮助用户了解项目细节和操作流程。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号