热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#视觉嵌入
clip-vit-base-patch16 - CLIP-ViT:基于Transformers的零样本图像分类模型
模型
开源项目
文本嵌入
Huggingface
图像分类
Transformers.js
视觉嵌入
Github
ONNX
clip-vit-base-patch16是OpenAI CLIP模型的一个变种,专注于零样本图像分类任务。这个模型使用ONNX格式的权重,可与Transformers.js库无缝集成,方便在Web环境中应用。它不仅提供了易用的pipeline API用于图像分类,还支持独立的文本和图像嵌入计算功能。该模型在处理各种图像分析和跨模态任务时,能够在性能和计算效率之间保持良好平衡。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号