Project Icon

jina-clip-v1

集成文本图像检索与文本相似度分析的多模态嵌入模型

jina-clip-v1是Jina AI开发的英语多模态嵌入模型,支持高效文本-图像和文本-文本检索。它结合了传统文本嵌入和跨模态模型的优势,适用于多模态检索增强生成应用。该模型在Flickr和MSCOCO跨模态检索任务中表现出色,文本相似度评估能力也与专业文本嵌入模型相当。

DFN5B-CLIP-ViT-H-14 - 高性能图像-文本对比学习模型
CLIPDFN-5BGithubHuggingface图像分类开源项目模型深度学习计算机视觉
DFN5B-CLIP-ViT-H-14是一个基于CLIP架构的图像-文本对比学习模型,通过DFN技术从430亿图像-文本对中筛选出50亿高质量样本进行训练。模型在39个图像分类基准测试中表现优异,平均准确率达69.8%。支持零样本图像分类和跨模态检索,可与OpenCLIP无缝集成。这一模型为计算机视觉和自然语言处理领域提供了有力支持,适用于多种研究和应用场景。
jina-embeddings-v2-base-code - 多语言代码嵌入模型 支持长序列和高效推理
GithubHuggingfacejina-embeddings-v2-base-code代码搜索多语言支持嵌入模型开源项目模型自然语言处理
jina-embeddings-v2-base-code是一款支持英语和30种常用编程语言的代码嵌入模型。它采用Bert架构和ALiBi技术,支持8192序列长度,适合处理长文档。该模型经过大规模代码数据训练,拥有1.61亿参数,可快速高效地生成嵌入。它在技术问答和代码搜索等场景表现出色,为开发者提供了实用的工具。
jina-embeddings-v2-small-en - 英文句子嵌入模型用于多种自然语言处理任务
GithubHuggingfacesentence-transformers开源项目文本分类模型深度学习特征提取自然语言处理
jina-embeddings-v2-small-en是一个英文句子嵌入模型,可用于多种自然语言处理任务。该模型在MTEB基准测试中表现良好,适用于分类、检索和聚类等任务。它在情感分析、问答匹配和语义相似度计算等数据集上展现了不错的性能。这个模型为文本表示提供了一个通用工具。
metaclip-b32-400m - 揭秘CLIP数据处理方法的高性能视觉语言模型
GithubHuggingfaceMetaCLIP图像文本匹配开源项目模型自然语言处理计算机视觉零样本图像分类
MetaCLIP-b32-400m是基于CommonCrawl数据集训练的视觉语言模型,旨在解析CLIP的数据准备方法。该模型构建了图像和文本的共享嵌入空间,支持零样本图像分类和基于文本的图像检索等功能。研究人员可通过此模型探究CLIP的数据处理流程,加深对视觉语言模型训练过程的理解。
nomic-embed-vision-v1.5 - 高性能视觉嵌入模型实现多模态共享空间
GithubHuggingfacenomic-embed-vision-v1.5图像处理多模态嵌入模型开源项目模型模型训练
nomic-embed-vision-v1.5是一款视觉嵌入模型,与nomic-embed-text-v1.5共享嵌入空间。该模型在ImageNet零样本和Datacomp基准测试中表现出色,优于OpenAI CLIP和Jina CLIP。它支持多模态检索,适用于文本到图像的检索场景。开发者可通过Nomic嵌入API或Transformers库使用该模型生成嵌入。nomic-embed-vision-v1.5为多模态检索增强生成(RAG)应用提供了有力支持。
clip-japanese-base - 日语CLIP模型,支持图像和文本的零样本分类与检索
BERTCLIPGithubHuggingface图像分类开源项目文本检索模型视觉任务
该日语CLIP模型由LY Corporation开发,通过大约10亿对图文数据进行训练,适用于图像和文本的零样本分类与检索。该模型采用Eva02-B作为图像编码器,并使用12层BERT作为文本编码器。模型在图像分类中的准确率达到0.89,检索召回率为0.30。在评估中,使用了STAIR Captions和ImageNet-1K等数据集,表现优秀。模型已开源,遵循Apache 2.0协议。
clip-ViT-B-32-vision - 图像分类与相似性搜索的简便工具
FastEmbedGithubHuggingfaceONNXimage-classification开源项目模型模型推理视觉相似搜索
clip-ViT-B-32模型的ONNX版本,支持图像分类和相似性搜索。利用FastEmbed库,用户能够快速处理图像嵌入,该模型在视觉任务中表现出色,适用于多种应用场景。
jina-colbert-v2 - 多语言信息检索的新一代智能模型
ColBERTGithubHuggingface多语言检索嵌入模型开源项目模型神经信息检索语义搜索
jina-colbert-v2是一个多语言信息检索模型,支持128种语言,采用马特里奥什卡嵌入技术实现效率与精度的平衡。该模型具有8192个输入上下文标记和标记级嵌入的可解释性。在BEIR、MS MARCO等基准测试中,jina-colbert-v2展现出优于前代模型和其他主流方案的检索性能。
clip-flant5-xxl - 基于VQAScore论文的强大图像文本检索模型
CLIP-FlanT5-XXLFlan-T5GithubHuggingfaceVQAScore图像文本检索开源项目模型视觉语言生成模型
CLIP-FlanT5-XXL是一个基于google/flan-t5-xxl微调的图像文本检索模型,由Zhiqiu Lin等研究者开发。这个视觉语言生成模型专门针对VQAScore论文中的任务进行了优化。采用Apache-2.0许可证的CLIP-FlanT5-XXL能够高效处理图像和文本之间的关联。该模型在Hugging Face平台上提供了演示,技术细节可在GitHub仓库中查阅。
CLIP-ViT-B-32-256x256-DataComp-s34B-b86K - 基于DataComp训练的CLIP多模态视觉语言模型
CLIPDataComp-1BGithubHuggingfaceViT-B-32图像分类开源项目机器学习模型
CLIP ViT-B/32是一个在DataComp-1B数据集上训练的视觉语言模型,通过OpenCLIP框架实现。模型在ImageNet-1k分类任务中实现72.7%零样本准确率,支持图像分类、跨模态检索等研究任务。该开源项目为计算机视觉研究提供了重要的实验基础
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号