Logo

#GPT-2

Logo of LoRA
LoRA
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
Logo of REaLTabFormer
REaLTabFormer
REaLTabFormer使用Seq2Seq模型生成关系数据集,针对非关系数据采用GPT-2模型,直接建模任意独立观察的表格数据。通过生成父表和关系表,利用目标掩码和统计方法避免过拟合。实验结果表明其在捕捉关系结构方面优于基准模型,并在大型非关系数据集上实现了先进的预测效果。REaLTabFormer易于安装和使用,并提供样本验证器以提高生成数据的有效性和准确性。
Logo of gpt2client
gpt2client
gpt2-client是一款易于使用的GPT-2模型封装工具,支持从124M到1.5B的多种模型。通过简单的API调用,可以方便地下载、加载并使用GPT-2模型进行文本生成和微调。兼容Python 3.5以上和TensorFlow 1.X,适合自然语言处理研究和应用开发,提供高效的文本生成解决方案。
Logo of GPT-2
GPT-2
本项目是基于Andrej Karpathy代码的GPT-2开源实现。通过详细注释解释模型架构和训练过程,包含核心文件如模型结构、训练循环和数据预处理。计划添加KV-Cache、RoPE等功能。虽然Hellaswag测试性能略低,但为学习大型语言模型提供了重要资源。项目展示了模型训练过程中的各种考虑因素,如权重初始化、学习率调整等技术细节。
Logo of GPT2
GPT2
该项目是OpenAI GPT-2模型的PyTorch实现,提供模型训练、文本生成和指标可视化功能。代码设计兼顾可读性和性能优化,支持多GPU训练、自动混合精度和梯度检查点等特性。项目提供详细的命令行使用说明,并可在Google Colab中进行交互式文本生成和模型评估。
Logo of spacy-transformers
spacy-transformers
spacy-transformers通过Hugging Face的transformers实现预训练模型如BERT、XLNet和GPT-2的集成,提升spaCy的功能。支持多任务学习、转换器输出自动对齐等,兼容Python 3.6以上版本,需要PyTorch v1.5+和spaCy v3.0+。
Logo of gpt-2-tensorflow2.0
gpt-2-tensorflow2.0
该项目实现了OpenAi GPT-2模型在Tensorflow 2.0中的预训练和序列生成,并提供详细的设置和训练指南。用户可以使用示例数据进行预训练或下载OpenWebText数据进行训练。支持多GPU分布式训练,并提供命令行接口和TensorBoard集成,帮助高效地进行模型训练和优化。项目遵循MIT许可证,社区贡献和改进热烈欢迎。
Logo of gpt-2
gpt-2
GPT-2是OpenAI开发的自然语言处理模型,展现了无监督学习在多任务处理中的卓越能力。项目开源了模型代码和预训练模型,便于研究人员探索其潜力。尽管性能出色,使用时仍需审慎评估其适用性,尤其是在安全关键领域。该项目也鼓励深入研究GPT-2的行为特征及其潜在影响。
Logo of build-nanogpt
build-nanogpt
build-nanogpt是一个开源教学项目,演示如何从零构建GPT-2模型。通过详细的Git提交记录和YouTube视频讲解,项目展示了124M参数GPT-2模型的完整构建过程。用户可在约1小时内重现模型,并可扩展至GPT-3规模。项目还提供模型训练示例、FAQ和勘误表,是深入理解大型语言模型原理的实用资源。该项目适合对大型语言模型感兴趣的开发者和研究人员,不仅提供了代码实现,还包含详细的解释和实践指导,有助于深入理解现代自然语言处理技术。
Logo of picoGPT
picoGPT
picoGPT是一个极简风格的GPT-2实现版本,采用NumPy全面编写,前向传播过程在短短40行代码中展开。它虽然运行缓慢,不支持多重训练或高级的采样方法,但其独特的简化设计提供了一种有趣的学习与试验环境,极适合AI和机器学习领域的爱好者及开发者。
Logo of llm-resource
llm-resource
LLM百宝箱是大模型相关资源的综合汇总,包括算法、训练、推理、数据工程、压缩和测评等方面。用户可以通过目录和链接快速找到相关内容,如Transformer和GPT模型的原理和源码解析,以及混合专家模型(MoE)等前沿技术。此外,还提供了LLM微调、对齐和推理优化的实现方案和技巧,帮助开发者和研究者深入掌握并应用大模型技术。
Logo of modded-nanogpt
modded-nanogpt
Modded-NanoGPT是一个基于Andrej Karpathy的llm.c项目的GPT-2训练器变体。该项目通过引入旋转嵌入等现代技术,将训练效率提高一倍,仅需5B tokens即可达到与原版相同的验证损失。代码简化至446行,实现了124M参数的transformer模型。在Fineweb验证集上,模型达到3.2818的验证损失。通过架构调整和超参数优化,该项目在保持性能的同时显著提升了训练速度。
Logo of automated-interpretability
automated-interpretability
automated-interpretability项目开发了一套自动化工具,用于生成、模拟和评分语言模型中神经元行为的解释。该项目提供了代码库、神经元激活查看器和GPT-2 XL神经元的公开数据集。这些资源旨在帮助研究人员和开发者深入理解大型语言模型的内部机制。
Logo of transformer-explainer
transformer-explainer
Transformer Explainer 是一款互动可视化工具,帮助理解基于Transformer的模型如GPT的工作原理。该工具在浏览器中运行实时的GPT-2模型,允许实验自己的文本并实时观察Transformer内部组件的协同预测过程。适合技术人员与学习者深入探索Transformer模型机制与应用。
Logo of commented-transformers
commented-transformers
详细注释的Transformer实现,涵盖从头创建Transformer系列,包括注意力机制和整体Transformer的实现。提供双向注意力、因果注意力及因果交叉注意力的实现,以及GPT-2和BERT模型的单文件实现,兼容torch.compile(..., fullgraph=True)以提高性能。
Logo of spreadsheets-are-all-you-need
spreadsheets-are-all-you-need
Spreadsheets-are-all-you-need项目利用Excel标准函数实现GPT2前向传播,为开发者和非开发者提供了探索transformer工作原理的机会。项目提供可在Mac和PC上运行的Excel文件,无需VBA或宏,安全可靠。这种创新方法使用户能直观地了解ChatGPT前身模型的内部机制,降低了理解复杂AI模型的门槛。
Logo of mlx-gpt2
mlx-gpt2
本项目展示了使用MLX框架从零实现GPT-2模型的完整过程。内容涵盖数据准备、词汇表创建和模型架构设计等核心步骤。该实现仅依赖MLX和NumPy库,可在MacBook上快速训练出能生成莎士比亚风格文本的模型。项目借鉴了Karpathy的GPT教程思路,并通过MLX框架重新实现,为深度学习爱好者提供了实践指南。