#内存效率

LLM-Training-Puzzles - 大型语言模型训练中的内存效率与计算管道优化
LLM Training PuzzlesGPU内存效率计算流水线AIGithub开源项目
本项目包含8个在多GPU环境下训练大型语言模型的挑战性谜题,旨在通过实践掌握内存效率和计算管道优化的关键训练原理。尽管大多数人没有机会在成千上万台计算机上进行训练,这些技能对现代AI的发展至关重要。推荐使用Colab运行这些谜题,提供便捷的上手体验。
redis - 开源高性能内存数据结构存储系统
Redis数据结构服务器内存效率持久化命令集Github开源项目
Redis是一个开源的高性能内存数据结构存储系统。它支持字符串、哈希、列表、集合等多种数据结构,并提供持久化、复制和集群功能。Redis将数据存储在内存中以实现高速访问,同时支持数据持久化到磁盘。其高效的内存使用机制使其比传统数据库占用更少内存。Redis广泛应用于缓存、消息队列和实时分析等场景,是现代互联网应用的重要基础设施。
GaLore - 内存高效训练策略 全参数学习与低秩梯度投影
GaLore大语言模型梯度投影内存效率低秩训练Github开源项目
GaLore是一种内存高效的低秩训练策略,实现全参数学习的同时比常见低秩适应方法更节省内存。作为梯度投影方法,GaLore可通过两行代码轻松集成到现有优化器中。这一策略不仅优化内存使用,还保持训练准确性,为大规模语言模型训练提供新解决方案。项目目前处于预发布阶段,计划未来支持多GPU训练和内存高效的低秩梯度累积等功能。
low-bit-optimizers - 4位优化器技术减少内存占用 提升大规模模型训练能力
4位优化器内存效率神经网络训练量化AdamWGithub开源项目
Low-bit Optimizers项目实现了一种4位优化器技术,可将优化器状态从32位压缩至4位,有效降低神经网络训练的内存使用。通过分析一阶和二阶动量,该项目提出了改进的量化方法,克服了现有技术的限制。在多项基准测试中,4位优化器实现了与全精度版本相当的准确率,同时提高了内存效率,为大规模模型训练开辟了新途径。
flatbuffers - 跨平台序列化库 实现极致内存效率
FlatBuffers序列化库跨平台内存效率数据访问Github开源项目
FlatBuffers是一款跨平台序列化库,专注于优化内存效率。它支持直接访问序列化数据,无需预先解析,同时保持良好的兼容性。该库兼容多种编程语言和操作系统,提供从schema定义到数据读取的完整工作流程。FlatBuffers为开发者提供高效的数据处理方案,适用于需要优化内存使用的项目。
Adam-mini - 减少内存消耗并提升模型效能的高效优化器
Adam-mini优化器内存效率深度学习分布式训练Github开源项目
Adam-mini是一种新型优化器,通过创新的参数分块和学习率分配方法,将内存占用比AdamW降低45%到50%,同时维持或提高模型性能。它支持多种分布式框架,可用于预训练、监督微调和RLHF等任务。Adam-mini基于Hessian结构相关原则,为大规模模型训练提供了高效解决方案。
lightplane - 内存高效的神经3D场景渲染框架
Lightplane3D渲染神经场景表示内存效率GPU优化Github开源项目
Lightplane是一个内存高效的神经3D场景渲染框架,包含可微分辐射场渲染器和特征投影模块。它能以不到1GB的GPU内存渲染全高清图像批次,保持与现有方法相当的渲染和反向传播速度。框架包含Lightplane渲染器和投影器两个主要组件,均采用优化的GPU内核实现。Lightplane具有高内存效率和可扩展性,易于扩展和使用,能显著提升神经场方法的应用规模。