Project Icon

LDCC-SOLAR-10.7B

基于SOLAR方法的深度学习模型,应用于数据通信与工程

项目详细描述了使用A100硬件和DeepSpeed、HuggingFace库训练的深度学习模型,通过SOLAR方法实现优化。建议使用特定版本的tokenizer文件进行模型精调,该模型适用于AI技术的多种应用场景。

distributed-llama - 优化大型语言模型的分布式计算性能
Distributed LlamaGithubLlama 3Python 3TCP socketsTensor parallelism开源项目
通过分布式计算技术,分散大型语言模型(LLMs)的工作负载到多个设备上,即使是性能较弱的设备也能运行强大的LLMs。项目使用TCP sockets同步状态,用户可以使用家庭路由器轻松配置AI集群,实现显著加速效果。Distributed Llama支持多种模型架构,提供简便的设置和操作方法,用户可以在本地运行大规模语言模型。
self-speculative-decoding - 无损加速大型语言模型的创新推理方案
GithubLLM加速Self-Speculative Decoding层跳过开源项目推理优化草稿验证
Self-Speculative Decoding是ACL 2024的一个开源项目,提出了一种无损加速大型语言模型(LLMs)的新方法。该技术通过草稿生成和验证两个阶段,在不增加额外训练和内存的情况下提高LLM推理速度。这一创新方案保证了输出质量和模型兼容性,为LLM加速提供了高效且易于实施的解决方案。
Efficient-Computing - 华为诺亚方舟实验室开发的AI模型优化技术集合
GithubHuawei Noah's Ark Lab开源项目模型压缩深度学习神经网络高效计算
Efficient-Computing项目旨在提高AI模型的计算效率和性能。这个由华为诺亚方舟实验室开发的高效计算方法集合包含多个子项目,涵盖了模型压缩、二值神经网络、知识蒸馏、网络剪枝、模型量化、自监督学习、训练加速、目标检测和低层视觉等领域的技术。该项目为AI研究和开发提供了多样化的工具和资源。
fsdp_qlora - 量化技术实现大型语言模型的高效训练
FSDPGithubLLMQLoRA开源项目微调量化
fsdp_qlora项目结合FSDP与量化LoRA,实现了在有限显存GPU上高效训练大型语言模型。支持HQQ和bitsandbytes的4位量化、LoRA、DoRA等多种策略,大幅降低内存占用。项目提供详细文档,便于快速上手使用。该方法使在消费级GPU上训练70B参数模型成为可能,为大模型研究提供了实用工具。
ai-reference-models - 提供在Intel硬件上运行的优化深度学习模型资源
GithubIntel AI Reference ModelsIntel Xeon ScalableTransformer优化开源项目深度学习
该存储库含有预训练模型、示例脚本、最佳实践和详细教程,针对优化机器学习模型在Intel® Xeon® 可扩展处理器和Intel® 数据中心GPU上的表现。文档涵盖了使用TensorFlow和PyTorch进行推理与训练的详细步骤,并提供了针对Sapphire Rapids和Intel® Data Center GPU Flex及Max系列的性能优化指南,展示了在最佳硬件配置下的AI性能。
ChatGLM-LoRA-RLHF-PyTorch - 使用LoRA和RLHF在消费者硬件上微调ChatGLM的详细指南
ChatGLM-LoRA-RLHF-PyTorchGithub奖励模型开源项目数据处理模型微调环境配置
该项目详细介绍了如何在消费者硬件上使用LoRA和RLHF微调ChatGLM LLM,包括环境配置、数据处理、监督微调及奖励模型的训练等步骤,帮助开发者轻松实现模型优化。
LoRA - 大型语言模型的低秩适配方法与参数节省
DeBERTaGLUEGPT-2GithubLoRARoBERTa开源项目
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
llm-finetuning - Modal和axolotl驱动的大语言模型高效微调框架
DeepSpeedGithubLLM微调LoRAModalaxolotl开源项目
这个开源项目整合了Modal和axolotl,为大语言模型微调提供了一个高效框架。它采用Deepspeed ZeRO、LoRA适配器和Flash Attention等先进技术,实现了高性能的模型训练。该框架支持云端部署,简化了资源管理流程,并可灵活适配不同模型和数据集。项目还提供了全面的配置说明和使用指南,方便开发者快速上手和定制化应用。
OLMo-7B-0724-hf - OLMo开放式语言模型促进语言处理技术进步
AI2GithubHuggingfaceOLMo变形金刚开源语言模型开源项目模型自然语言处理
OLMo是由AI2开发的开源语言模型系列,旨在推动语言模型科学研究。该模型基于Dolma数据集训练,采用先进的Transformer结构,实现性能提升和多阶段优化。OLMo-7B-0724-hf具备强大的文本生成能力,适用于文本推理和生成任务。支持在HuggingFace平台上进行加载、微调和评估,且提供多种数据检查点,方便研究与开发。该项目得到多家机构支持,并在多个主要AI任务中表现优异。
efficient-dl-systems - 从GPU架构到模型部署的全面课程
GPU架构Github分布式训练开源项目推理优化模型优化深度学习系统
本项目是一门全面的高效深度学习系统课程,内容涵盖GPU架构、CUDA编程、实验管理、分布式训练、大模型处理、模型部署及推理优化等核心主题。课程结合理论讲座和实践研讨,旨在培养学生掌握深度学习系统的效率优化技能。课程还提供多个实践作业和往年教学资料,适合希望深入了解深度学习系统效率提升的学习者。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号