Project Icon

trocr-base-stage1

以Transformer为基础的图像文字识别预训练模型

此预训练模型使用Transformer进行光学字符识别(OCR),为TrOCR模型的一部分。其图像编码器采用BEiT权重初始化,文本解码器则使用RoBERTa权重,处理图像为固定大小的16x16像素块并线性嵌入。适用于单行文本图像的OCR任务,并支持针对特定任务进行微调,兼容PyTorch实现。

TransformerHub - 实现与参考多种Transformer模型
BERTGPTGithubTransformerTransformerHubViT开源项目
此项目实现了多种Transformer架构,包括seq2seq、仅编码器、仅解码器和统一模型,旨在提高编程技能并提供深度学习参考。特色包括多种Attention模块、位置嵌入和采样方法,当前进展是实现DINO模型。项目受到多个开源项目的启发和支持。
opt-1.3b - Meta AI开发的开源预训练Transformer语言模型系列
GithubHuggingfaceOPT人工智能开源项目模型自然语言处理语言模型预训练模型
OPT是Meta AI开发的开源预训练Transformer语言模型系列,包含125M至175B参数的多个版本。采用先进数据收集和训练方法,性能可媲美GPT-3。该项目旨在推动大规模语言模型的可复现研究,让更多研究者参与探讨其影响。OPT主要应用于文本生成和下游任务微调,但仍存在偏见等局限性。
Transformer-TTS - 神经语音合成系统
GithubPyTorchTacotronTransformer-TTS开源项目神经网络语音合成
Transformer-TTS,一个基于Pytorch的高效神经语音合成系统。它使用Transformer网络,且训练速度是传统seq2seq模型的3到4倍。不仅提供预训练模型,其合成语音质量经实验证明优异。同时,项目支持自定义学习模型及策略,包括Noam式预热衰减学习率及关键的梯度裁剪等,是语音合成研究的理想选择。
Transformers-Tutorials - Transformers库深度学习模型教程集合
GithubHuggingFaceTransformers开源项目深度学习自然语言处理计算机视觉
这个项目汇集了基于HuggingFace Transformers库的多种深度学习模型教程,涵盖自然语言处理和计算机视觉等领域。内容包括BERT、DETR、LayoutLM等模型的微调和推理示例,展示了在图像分类、目标检测、文档分析等任务中的应用。所有代码采用PyTorch实现,并提供Colab notebooks方便实践。
t5-11b - 统一框架下的多语言文本转换模型
GithubHuggingfaceT5开源项目文本转换模型自然语言处理迁移学习预训练模型
T5-11B是一个基于Text-To-Text Transfer Transformer架构的大型语言模型,拥有110亿参数。该模型采用统一的文本到文本格式,能够处理机器翻译、文档摘要、问答和分类等多种NLP任务。T5-11B在Colossal Clean Crawled Corpus (C4)上进行预训练,并在24个任务上评估性能。模型支持英语、法语、罗马尼亚语和德语,展现出优秀的迁移学习能力,为自然语言处理应用奠定了坚实基础。
tokenizer_titok_s128_imagenet - 基于PytorchModelHubMixin的开源图像标记化模型
GithubHugging FaceHuggingfacePytorchModelHubMixin图像标记化开源项目机器学习模型模型深度学习
tokenizer_titok_s128_imagenet是一个开源的图像标记化模型,基于Apache-2.0许可。该项目利用PytorchModelHubMixin技术与Hugging Face模型库集成,专注于图像tokenization。它支持PyTorch模型hub功能,为图像处理研究和开发提供了实用工具。项目源码托管于GitHub的1d-tokenizer仓库。
beit-base-patch16-224-pt22k-ft22k - BEiT 基于Transformer的自监督图像分类模型
BEiTGithubHuggingfaceImageNet图像分类开源项目模型自监督学习视觉转换器
BEiT是一种基于Transformer的图像分类模型,在ImageNet-22k数据集上进行自监督预训练和微调。它采用掩码预测目标和相对位置编码,有效学习图像表示。该模型在多个图像分类基准测试中表现出色,为计算机视觉任务提供了强大的基础。
mit-b0 - 轻量级视觉Transformer用于语义分割
GithubHuggingfaceSegFormerTransformer图像处理开源项目模型深度学习语义分割
mit-b0是SegFormer系列中的轻量级模型,采用分层Transformer编码器架构,在ImageNet-1k数据集上预训练。这个模型专为语义分割任务设计,结合了Transformer的特征提取能力和轻量级MLP解码头。mit-b0在ADE20K等基准测试中表现出色,为研究人员提供了一个可靠的预训练基础,可在特定数据集上进行进一步微调和优化。
layoutlmv3-base - 多模态文档AI预训练模型
Document AIGithubHuggingfaceLayoutLMv3多模态预训练开源项目文本图像掩码文档人工智能模型
LayoutLMv3是一款文档AI预训练模型,采用统一的文本和图像掩码方法。该模型架构简单,训练目标明确,适用于多种文档AI任务。通过微调,LayoutLMv3可用于表单理解、收据识别、文档问答等文本相关任务,以及文档图像分类、文档布局分析等图像相关任务。作为通用预训练模型,LayoutLMv3在文档AI领域的多项任务中表现出色。
git-base-coco - 应用于多任务的图像文本生成模型
COCOGITGithubHuggingface图像识别开源项目模型模型训练视觉问答
GIT是一种基于Transformer的图像文本生成模型,进行了COCO数据集的微调。其设计提升了在图像和视频描述以及问答上的能力。模型结合了CLIP图像令牌与文本令牌进行训练,能够有效预测下一个文本令牌。GIT被应用于图像和视频的标题生成、视觉问答和图像分类等视觉任务,利用大量图像文本对进行训练,实现了多样化的视觉语言任务,提升了视觉理解和交互的效果。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号