#GPT-2

LLM-Resource学习资料汇总 - 大语言模型全栈优质资源导航

2 个月前
Cover of LLM-Resource学习资料汇总 - 大语言模型全栈优质资源导航

picoGPT学习资料汇总 - GPT-2的极简NumPy实现

2 个月前
Cover of picoGPT学习资料汇总 - GPT-2的极简NumPy实现

LoRA入门指南 - 低秩适配大型语言模型的高效微调方法

2 个月前
Cover of LoRA入门指南 - 低秩适配大型语言模型的高效微调方法

GPT-2:开启自然语言处理的新篇章

3 个月前
Cover of GPT-2:开启自然语言处理的新篇章

MLX-GPT2:在Apple Silicon上运行和训练GPT-2模型

3 个月前
Cover of MLX-GPT2:在Apple Silicon上运行和训练GPT-2模型

modded-nanogpt: 高效训练GPT-2模型的改进版本

3 个月前
Cover of modded-nanogpt: 高效训练GPT-2模型的改进版本

自动化解释性:使用人工智能理解人工智能

3 个月前
Cover of 自动化解释性:使用人工智能理解人工智能

GPT-2: 解析自然语言处理的革命性模型

3 个月前
Cover of GPT-2: 解析自然语言处理的革命性模型

Spreadsheets-are-all-you-need: 用电子表格实现GPT-2前向传播

3 个月前
Cover of Spreadsheets-are-all-you-need: 用电子表格实现GPT-2前向传播

GPT-2:开启自然语言处理新纪元的里程碑模型

3 个月前
Cover of GPT-2:开启自然语言处理新纪元的里程碑模型
相关项目
Project Cover

spacy-transformers

spacy-transformers通过Hugging Face的transformers实现预训练模型如BERT、XLNet和GPT-2的集成,提升spaCy的功能。支持多任务学习、转换器输出自动对齐等,兼容Python 3.6以上版本,需要PyTorch v1.5+和spaCy v3.0+。

Project Cover

picoGPT

picoGPT是一个极简风格的GPT-2实现版本,采用NumPy全面编写,前向传播过程在短短40行代码中展开。它虽然运行缓慢,不支持多重训练或高级的采样方法,但其独特的简化设计提供了一种有趣的学习与试验环境,极适合AI和机器学习领域的爱好者及开发者。

Project Cover

transformer-explainer

Transformer Explainer 是一款互动可视化工具,帮助理解基于Transformer的模型如GPT的工作原理。该工具在浏览器中运行实时的GPT-2模型,允许实验自己的文本并实时观察Transformer内部组件的协同预测过程。适合技术人员与学习者深入探索Transformer模型机制与应用。

Project Cover

REaLTabFormer

REaLTabFormer使用Seq2Seq模型生成关系数据集,针对非关系数据采用GPT-2模型,直接建模任意独立观察的表格数据。通过生成父表和关系表,利用目标掩码和统计方法避免过拟合。实验结果表明其在捕捉关系结构方面优于基准模型,并在大型非关系数据集上实现了先进的预测效果。REaLTabFormer易于安装和使用,并提供样本验证器以提高生成数据的有效性和准确性。

Project Cover

gpt-2-tensorflow2.0

该项目实现了OpenAi GPT-2模型在Tensorflow 2.0中的预训练和序列生成,并提供详细的设置和训练指南。用户可以使用示例数据进行预训练或下载OpenWebText数据进行训练。支持多GPU分布式训练,并提供命令行接口和TensorBoard集成,帮助高效地进行模型训练和优化。项目遵循MIT许可证,社区贡献和改进热烈欢迎。

Project Cover

llm-resource

LLM百宝箱是大模型相关资源的综合汇总,包括算法、训练、推理、数据工程、压缩和测评等方面。用户可以通过目录和链接快速找到相关内容,如Transformer和GPT模型的原理和源码解析,以及混合专家模型(MoE)等前沿技术。此外,还提供了LLM微调、对齐和推理优化的实现方案和技巧,帮助开发者和研究者深入掌握并应用大模型技术。

Project Cover

commented-transformers

详细注释的Transformer实现,涵盖从头创建Transformer系列,包括注意力机制和整体Transformer的实现。提供双向注意力、因果注意力及因果交叉注意力的实现,以及GPT-2和BERT模型的单文件实现,兼容torch.compile(..., fullgraph=True)以提高性能。

Project Cover

gpt2client

gpt2-client是一款易于使用的GPT-2模型封装工具,支持从124M到1.5B的多种模型。通过简单的API调用,可以方便地下载、加载并使用GPT-2模型进行文本生成和微调。兼容Python 3.5以上和TensorFlow 1.X,适合自然语言处理研究和应用开发,提供高效的文本生成解决方案。

Project Cover

LoRA

LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号