Project Icon

x-clip

灵活实现的CLIP视觉语言预训练模型

x-clip是一个简洁而全面的CLIP实现,整合了多项前沿研究成果。该项目支持灵活的模型配置,包括自定义文本和图像编码器、多视图对比学习和视觉自监督学习等功能。通过易用的API,研究人员可以快速实验各种CLIP变体和改进方案。x-clip适用于图像检索、跨模态理解等多种视觉语言任务。

japanese-clip-vit-b-16 - 日语CLIP模型实现跨模态文本图像语义匹配
CLIPGithubHuggingfaceViT-B/16japanese-clip图像识别开源项目模型深度学习
rinna公司开发的日语CLIP模型采用ViT-B/16 Transformer架构,通过CC12M数据集的日语翻译版本训练而成。该模型实现了日语文本与图像的跨模态理解和语义匹配,提供简洁的API接口,适用于图像检索和跨模态搜索等场景。作为Apache 2.0许可的开源项目,它为日语视觉语言处理领域提供了实用的基础工具。
CLIPSelf - 视觉Transformer自蒸馏实现开放词汇密集预测
CLIPSelfCOCOGithub密集预测开放词汇开源项目视觉Transformer
CLIPSelf项目提出创新自蒸馏方法,使视觉Transformer能进行开放词汇密集预测。该方法利用模型自身知识蒸馏,无需标注数据,提升了目标检测和实例分割等任务性能。项目开源代码和模型,提供详细训练测试说明,为计算机视觉研究提供重要资源。
chinese-clip-vit-huge-patch14 - 基于ViT-H/14和RoBERTa的中文图文对比学习模型
Chinese-CLIPGithubHuggingface中文数据集图像编码器开源项目文本编码器检索模型
chinese-clip-vit-huge-patch14是一个基于ViT-H/14和RoBERTa-wwm-large的中文CLIP模型,在大规模中文图文数据上训练,表现卓越。支持在MUGE、Flickr30K-CN和COCO-CN等数据集中的图文检索和零样本分类。提供API实现简便的图文特征提取及相似度计算,详情请参见GitHub仓库。
CLIP-convnext_xxlarge-laion2B-s34B-b82K-augreg - 基于LAION-2B数据集的卷积神经网络达到79%零样本分类准确率
CLIPConvNextGithubHuggingface图像分类开源项目机器学习模型神经网络
CLIP ConvNeXt-XXLarge是一个在LAION-2B数据集上训练的大规模视觉语言模型,总参数量12亿,图像分辨率256x256。模型采用ConvNeXt-XXLarge图像结构和ViT-H-14规模的文本编码器,在ImageNet零样本分类上达到79%准确率。主要应用于图像分类、检索等研究任务。
vit_large_patch14_clip_224.openai - 探索OpenAI提出的CLIP模型在计算机视觉任务中零样本分类的潜力
CLIPGithubHuggingface偏见公平性开源项目模型计算机视觉零样本学习
OpenAI开发的CLIP模型通过对比损失训练大量的图像与文本对展示了其在计算机视觉任务中实现零样本分类的能力。这一模型尤其适合AI研究人员用以深入理解计算机视觉模型的鲁棒性及泛化能力,同时关注于它的潜在局限与偏见。尽管在细粒度分类和对象计数任务中存在不足,CLIP提供了对于模型在不同任务表现及相关风险的深入认知。需要注意的是,CLIP模型并不适用于商业用途,且其数据训练主要基于英语环境。
CLAP - 音频与文本的对比学习预训练模型
CLAPGithub多模态学习开源项目机器学习音频处理预训练模型
CLAP是一个音频-文本对比学习预训练模型,可提取音频和文本的潜在表示。它基于CLIP架构设计,通过大规模预训练学习音频与文本的对应关系。该模型适用于音频分类、检索等多种下游任务。项目提供开源预训练模型、代码和PyPI库,支持从音频文件或数据中直接提取特征。
clip-japanese-base - 日语CLIP模型,支持图像和文本的零样本分类与检索
BERTCLIPGithubHuggingface图像分类开源项目文本检索模型视觉任务
该日语CLIP模型由LY Corporation开发,通过大约10亿对图文数据进行训练,适用于图像和文本的零样本分类与检索。该模型采用Eva02-B作为图像编码器,并使用12层BERT作为文本编码器。模型在图像分类中的准确率达到0.89,检索召回率为0.30。在评估中,使用了STAIR Captions和ImageNet-1K等数据集,表现优秀。模型已开源,遵循Apache 2.0协议。
CLIP-ViT-H-14-laion2B-s32B-b79K - 基于LAION-2B数据集的多功能视觉-语言模型
CLIPGithubHuggingfacezero-shot图像分类开源项目数据集机器学习模型
CLIP-ViT-H-14-laion2B-s32B-b79K是基于LAION-2B数据集训练的视觉-语言模型。该模型在ImageNet-1k上达到78.0%的零样本Top-1准确率,适用于图像分类、图像文本检索等任务。此外,它还支持图像分类微调、线性探测和图像生成指导等下游应用。研究人员可借助该模型探索零样本图像分类技术,并评估其潜在影响。
CLIP-ReID - 基于CLIP的无标签图像重识别新方法
CLIP-ReIDGithub人工智能图像重识别开源项目视觉语言模型计算机视觉
CLIP-ReID提出了一种无需具体文本标签的图像重识别新方法。该方法基于CLIP视觉-语言模型,结合CNN和ViT架构,并运用SIE和OLP等技术进行优化。在MSMT17等多个基准数据集上,CLIP-ReID展现了领先的性能,为图像重识别领域开辟了新的研究方向。
DFN5B-CLIP-ViT-H-14-378 - 大规模数据筛选优化的视觉语言预训练系统
CLIPGithubHuggingface图像分类开源项目数据过滤网络机器学习模型计算机视觉
DFN5B-CLIP-ViT-H-14-378是一款基于CLIP架构的视觉语言模型,采用数据过滤网络(DFN)技术从43B未筛选的图像-文本对中提取5B高质量数据进行训练。该模型在多项视觉任务中表现优异,平均准确率达70.94%。支持零样本图像分类,可与OpenCLIP框架无缝集成,为计算机视觉和自然语言处理研究提供了高性能的预训练模型基础。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号