Project Icon

t5-efficient-tiny

基于深层窄结构设计的轻量级自然语言处理模型

T5-Efficient-TINY是一个轻量级自然语言处理模型,基于Google T5架构开发。模型通过深层窄结构优化设计,仅需1558万参数即可实现出色性能。该模型在C4数据集完成预训练后,可用于文本摘要、问答和分类等英语NLP任务,需要进行针对性微调。采用半精度存储时,模型仅占用31.16MB内存,运行效率较高。

tiny-dnn - 轻量级C++14深度学习库,适用于嵌入式系统和物联网设备
C++14Githubtiny-dnn嵌入式系统开源项目深度学习物联网设备
tiny-dnn是一个为计算资源有限的嵌入式系统和物联网设备设计的C++14深度学习库。该库无需GPU,通过TBB线程和SSE/AVX向量化实现了高效性能,在13分钟内达到了98.8%的MNIST准确率。其便携的头文件形式使其易于集成,支持多种网络层类型、激活函数、损失函数和优化算法。tiny-dnn还能导入Caffe模型,适合学习和构建神经网络应用。
nanoGPT - 简洁高效的中型GPT模型训练框架
GPT训练GithubPyTorchnanoGPT开源项目深度学习语言模型
nanoGPT是一个针对中型GPT模型的训练框架,重写自minGPT项目并注重性能优化。其核心由约300行代码组成,包括训练循环和模型定义,能够轻松复现GPT-2(124M)。该框架支持从零开始训练新模型或微调预训练检查点,并提供了详细的入门指南,涵盖了从Shakespeare作品上的字符级模型训练到在OpenWebText数据集上复现GPT-2结果的完整流程。
MiniCPM - 轻量级大语言模型实现高性能端侧部署
GithubMiniCPM多模态开源模型开源项目模型量化端侧大语言模型
MiniCPM是一系列高效的端侧大语言模型,仅有2.4B非词嵌入参数。经过优化后,在多项评测中表现优异,甚至超越了一些参数量更大的模型。该项目支持多模态功能,可在移动设备上流畅运行。MiniCPM开源了多个版本,涵盖文本、多模态、量化和长文本等应用场景,适用于学术研究和特定商业用途。这一开源项目由面壁智能与清华大学自然语言处理实验室联合开发。
StableTTS - 轻量级流匹配和DiT驱动的新一代TTS模型
GithubStableTTSTTS模型人工智能开源项目语音合成
StableTTS是一款开源的轻量级中英文语音合成模型,参数量仅为1000万。该项目创新性地结合了流匹配和扩散卷积Transformer技术,灵感源自Stable Diffusion 3。StableTTS提供预训练模型,支持推理、微调和WebUI应用。其独特的模型架构包含扩散卷积Transformer块和流匹配解码器,旨在提升语音合成质量。项目还提供了便捷的训练和推理工具,以及Hugging Face在线演示平台。
modded-nanogpt - 基于PyTorch的高效GPT-2训练器变体
GPT-2GithubNanoGPTPyTorch开源项目模型优化训练效率
Modded-NanoGPT是一个基于Andrej Karpathy的llm.c项目的GPT-2训练器变体。该项目通过引入旋转嵌入等现代技术,将训练效率提高一倍,仅需5B tokens即可达到与原版相同的验证损失。代码简化至446行,实现了124M参数的transformer模型。在Fineweb验证集上,模型达到3.2818的验证损失。通过架构调整和超参数优化,该项目在保持性能的同时显著提升了训练速度。
ChatLM-mini-Chinese - 小参数中文对话模型,支持低显存预训练,优化SFT和DPO性能
ChatLM-Chinese-0.2BGithubHuggingfaceRLHF优化SFT微调开源项目预训练
ChatLM-mini-Chinese是一个小参数中文生成式语言模型项目。模型参数为0.2B,最低4GB显存即可实现预训练,512MB显存可进行推理。项目公开预训练和优化数据集,包括SFT微调和DPO偏好优化,支持多种下游任务。基于Huggingface NLP框架,自实现trainer,支持单机单卡及多卡训练,并可断点续训。此项目优化了内存和显存的使用,为硬件资源不足的用户提供了一种高效的中文对话解决方案。
mindnlp - 开源自然语言处理与大语言模型框架
GithubMindNLPMindSpore大语言模型开源项目自然语言处理预训练模型
MindNLP是一个基于MindSpore的开源自然语言处理库,支持语言模型、机器翻译、问答系统、情感分析、序列标注和摘要生成等多种任务。该项目集成了BERT、Roberta、GPT2和T5等多种预训练模型,通过类似Huggingface的API简化了使用流程。用户可通过pypi或源代码安装该库,并支持包括Llama、GLM和RWKV在内的大型语言模型的预训练、微调和推理,非常适合研究者和开发人员构建和训练模型。
llm-toys - 微调小型语言模型实现多任务处理
Githubllm-toys任务微调低资源模型对话摘要开源项目语气变化
llm-toys 项目提供适用于释义、语气转换、对话总结和主题生成等任务的小型量化3B和7B语言模型。这些经过微调的模型能在普通消费级硬件上高效运行,并通过简单的安装步骤提升文本处理和生成能力。
Pretrained-Language-Model - 先进预训练语言模型与优化技术集合
GithubMindSporePyTorchTensorFlow开源项目自然语言处理预训练语言模型
此开源项目汇集了多个先进的预训练语言模型和相关优化技术。包含200B参数中文语言模型PanGu-α、高性能中文NLP模型NEZHA、模型压缩技术TinyBERT和DynaBERT等子项目。这些模型在多项中文NLP任务中表现出色,支持MindSpore、TensorFlow和PyTorch等多种深度学习框架。
TinyLLaVA_Factory - 模块化的开源小规模多模态模型库
GithubHuggingFacePyTorchTinyLLaVA Factory多模态模型开源代码库开源项目
TinyLLaVA Factory是一个开源的模块化代码库,专注于简化小规模多模态模型的开发和定制,使用PyTorch和HuggingFace实现。其设计旨在简化代码实现、提高扩展性和确保训练结果的可重复性。支持如OpenELM、TinyLlama、StableLM等语言模型和CLIP、SigLIP等视觉模型。通过TinyLLaVA Factory,可减少编码错误,快速定制多模态模型,提高性能,为研究和应用提供强大工具。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

Project Cover

天工AI音乐

天工AI音乐平台支持音乐创作,特别是在国风音乐领域。该平台适合新手DJ和音乐爱好者使用,帮助他们启动音乐创作,增添生活乐趣,同时发现和分享新音乐。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号