Project Icon

modded-nanogpt

基于PyTorch的高效GPT-2训练器变体

Modded-NanoGPT是一个基于Andrej Karpathy的llm.c项目的GPT-2训练器变体。该项目通过引入旋转嵌入等现代技术,将训练效率提高一倍,仅需5B tokens即可达到与原版相同的验证损失。代码简化至446行,实现了124M参数的transformer模型。在Fineweb验证集上,模型达到3.2818的验证损失。通过架构调整和超参数优化,该项目在保持性能的同时显著提升了训练速度。

gpt2-small-portuguese - 葡萄牙语NLP高效精调模型的详细解析
GPorTuguese-2GithubHuggingfaceNLP任务开源项目微调模型葡萄牙语语言模型
研究展示了如何在有限资源下使用Hugging Face和fastai v2对英语GPT-2进行精调,构建出葡萄牙语语言模型。该模型基于GPT-2 small,经过一天训练获得37.99%的准确率和23.76的困惑度,显示了其在葡萄牙语文本生成及其他NLP任务中的表现。研究指出,迁移学习可在任何语言的前沿语言模型开发中发挥作用。
nano-llama31 - 轻量级Llama 3.1架构实现 提供训练微调和推理功能
AI模型GithubLlama 3.1nanoGPT开源项目微调深度学习
nano-llama31是一个轻量级的Llama 3.1架构实现,无需额外依赖。该项目聚焦8B基础模型,提供训练、微调和推理功能。相比Meta官方和Hugging Face的版本,代码更为精简。目前正在开发中,已支持Tiny Stories数据集的微调。未来计划增加混合精度训练、分布式数据并行等功能,并考虑扩展到更大规模的Llama 3模型。
tiny_GPT2ForTokenClassification-lora - 使用PEFT框架实现GPT2模型的LoRA微调
AI模型GithubHuggingfacePEFT开源项目机器学习框架模型训练
该项目基于PEFT框架,通过LoRA适配器对tiny_GPT2ForTokenClassification模型进行微调,实现低资源消耗的模型定制化训练。项目展示了PEFT框架在轻量级模型调优中的应用方法
gpt2-lora-random - GPT2模型LoRA微调框架 提升语言模型性能的开源项目
GithubHuggingfacegpt2peft开源项目机器学习模型模型训练深度学习框架
gpt2-lora-random项目利用PEFT框架实现GPT2模型的LoRA微调。通过Low-Rank Adaptation技术,该项目降低了模型训练的资源需求和参数量。它为开发者提供了一个用于自然语言处理任务优化的灵活框架。项目文档涵盖了模型训练流程和环境影响评估指南,适合研究人员和工程师使用。
gpt2client - OpenAI GPT-2模型封装工具,简化文本生成操作
GPT-2GithubPython安装指南开源项目文本生成自然语言处理
gpt2-client是一款易于使用的GPT-2模型封装工具,支持从124M到1.5B的多种模型。通过简单的API调用,可以方便地下载、加载并使用GPT-2模型进行文本生成和微调。兼容Python 3.5以上和TensorFlow 1.X,适合自然语言处理研究和应用开发,提供高效的文本生成解决方案。
WebGPT - 基于WebGPU的Transformer模型实现与性能分析
GPUGithubJavaScriptWebGPTWebGPU开源项目模型
WebGPT项目是一款基于WebGPU的Transformer模型应用,使用纯JavaScript和HTML实现。该项目不仅用于技术演示,同时也作为教育资源,支持在主流浏览器中运行,并能管理最多500M参数的模型。主要优化在Chrome v113和Edge Canary等浏览器上,通过WebGPU技术提高运行效率,适合用于学习和研究深度学习模型。
P-tuning-v2 - 深度提示调优技术提升小型模型性能 媲美传统微调方法
GithubP-tuning v2参数效率开源项目提示调优深度学习自然语言处理
P-tuning v2是一种创新的提示调优策略,通过深度提示调优技术为预训练Transformer的每层输入应用连续提示。这种方法显著提升了连续提示的容量,有效缩小了与传统微调方法的性能差距,尤其在小型模型和复杂任务中表现突出。研究表明,P-tuning v2在BERT和RoBERTa等模型上取得了优异成果,在多项NLP任务中达到了与微调相当的水平,为发展参数高效的模型调优技术开辟了新途径。
gpt-ya2-v2 - 基于kpriyanshu256数据集优化的文本生成模型
GithubHuggingfacegpt2准确率开源项目数据集模型精调
gpt-ya2-v2利用kpriyanshu256数据集对gpt2模型进行微调,提高了文本生成的因果语言建模性能。主要训练参数包括学习率5e-05和批量大小8,采用Adam优化器和线性学习率调度。模型在测试中达到36.91%的准确性,展示了在文本生成任务中的有效性。
t5-efficient-tiny - 基于深层窄结构设计的轻量级自然语言处理模型
GithubHuggingfaceT5开源项目模型模型架构深度学习自然语言处理预训练模型
T5-Efficient-TINY是一个轻量级自然语言处理模型,基于Google T5架构开发。模型通过深层窄结构优化设计,仅需1558万参数即可实现出色性能。该模型在C4数据集完成预训练后,可用于文本摘要、问答和分类等英语NLP任务,需要进行针对性微调。采用半精度存储时,模型仅占用31.16MB内存,运行效率较高。
gpt2 - HPU处理器上运行GPT2的Gaudi配置方案
GithubHuggingfaceOptimum Habana人工智能开源项目机器学习模型模型训练硬件加速
GPT2模型在Habana Gaudi处理器(HPU)上的优化配置方案,通过GaudiConfig文件实现Fused Adam优化、梯度裁剪和混合精度训练。基于Optimum Habana接口,支持单/多HPU环境下的模型加载、训练和推理,可用于各类下游任务。配置方案与Transformers库完全兼容,并提供HPU专属训练参数。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号