#nanoGPT

spreadsheet-is-all-you-need - 电子表格实现nanoGPT架构 直观展示Transformer内部机制
nanoGPTtransformer自注意力机制矩阵计算电子表格Github开源项目
这个项目将nanoGPT的完整推理流程实现在电子表格中,包括嵌入、层归一化和自注意力等Transformer核心组件。基于Andrej Karpathy的NanoGPT结构,该电子表格模型包含约85000个参数。通过直观展示Transformer的内部机制和数据流,并支持交互式操作,该项目为深入理解GPT工作原理提供了新颖的可视化方法。用户可以通过探索这个电子表格来更好地掌握Transformer架构的细节。
nano-llama31 - 轻量级Llama 3.1架构实现 提供训练微调和推理功能
Llama 3.1AI模型nanoGPT微调深度学习Github开源项目
nano-llama31是一个轻量级的Llama 3.1架构实现,无需额外依赖。该项目聚焦8B基础模型,提供训练、微调和推理功能。相比Meta官方和Hugging Face的版本,代码更为精简。目前正在开发中,已支持Tiny Stories数据集的微调。未来计划增加混合精度训练、分布式数据并行等功能,并考虑扩展到更大规模的Llama 3模型。
nanoGPT - 简洁高效的中型GPT模型训练框架
nanoGPTGPT训练语言模型PyTorch深度学习Github开源项目
nanoGPT是一个针对中型GPT模型的训练框架,重写自minGPT项目并注重性能优化。其核心由约300行代码组成,包括训练循环和模型定义,能够轻松复现GPT-2(124M)。该框架支持从零开始训练新模型或微调预训练检查点,并提供了详细的入门指南,涵盖了从Shakespeare作品上的字符级模型训练到在OpenWebText数据集上复现GPT-2结果的完整流程。
build-nanogpt - 从零构建GPT-2模型的开源教学项目
nanoGPTGPT-2语言模型机器学习深度学习Github开源项目
build-nanogpt是一个开源教学项目,演示如何从零构建GPT-2模型。通过详细的Git提交记录和YouTube视频讲解,项目展示了124M参数GPT-2模型的完整构建过程。用户可在约1小时内重现模型,并可扩展至GPT-3规模。项目还提供模型训练示例、FAQ和勘误表,是深入理解大型语言模型原理的实用资源。该项目适合对大型语言模型感兴趣的开发者和研究人员,不仅提供了代码实现,还包含详细的解释和实践指导,有助于深入理解现代自然语言处理技术。