#视觉模型

Phi-3-Vision-MLX: 为Apple Silicon打造的本地化视觉和语言模型

3 个月前
Cover of Phi-3-Vision-MLX: 为Apple Silicon打造的本地化视觉和语言模型

对比自监督学习:计算机视觉领域的新范式

3 个月前
Cover of 对比自监督学习:计算机视觉领域的新范式
相关项目
Project Cover

Awesome-Parameter-Efficient-Transfer-Learning

该项目提供了关于参数高效迁移学习的全面资源,包含多种调优方法和最新研究。研究人员和工程师可以参考这些资源,以提高预训练视觉模型的微调效率,并了解最新的项目更新,如视觉PEFT库和基准测试。

Project Cover

awesome-contrastive-self-supervised-learning

该项目收录了对比自监督学习领域的重要论文和资源,覆盖从2017年至今的研究成果。内容包括综述、算法、应用等,按年份分类整理。研究人员可通过此项目快速了解该领域发展历程和最新动态,是深入研究对比学习的重要参考资料。

Project Cover

bioclip

BioCLIP是一个基于CLIP架构的生物学视觉模型,利用包含超过45万分类单元的数据集,在生物分类测试中表现超过基准16%-17%。它能学习与生命树一致的层次表示,支持生物学家进行新物种和相似生物的发现。

Project Cover

siglip-so400m-14-980-flash-attn2-navit

项目提升视觉塔最大分辨率到980x980,结合NaViT策略,支持变分辨率及纵横比自适应的图像处理。这些更新确保与原模型的向后兼容性,同时扩展了视觉处理潜力。通过插值位置嵌入提升分辨率,NaViT策略实现灵活性。用户无需指定patch_attention_mask即可兼容旧版本,享受新功能的优势,确保模型在高效处理高分辨率图像时保持兼容性。

Project Cover

t2i-adapter-lineart-sdxl-1.0

T2I Adapter引入线条艺术条件,为StableDiffusionXL模型增强文本到图像生成功能。该项目由腾讯ARC和Hugging Face合作开发,专业处理复杂图像造型和结构。通过Apache 2.0许可证分发,便于集成与扩展。模型的条件设置挖掘更多可控能力,增加艺术与AI图像生成的创意。GitHub库和相关论文提供完整指南和示例,适合开发者与研究人员。

Project Cover

Florence-2-base-ft

Florence-2-base-ft是一款多任务视觉AI模型,可处理多种视觉和视觉-语言任务。该模型通过解释简单的文本提示,执行图像描述、物体检测和分割等操作。在图像描述、视觉问答和引用表达理解等基准测试中,Florence-2-base-ft展现出优秀性能。这个拥有2.3亿参数的模型为各类视觉任务提供了统一的表示方法,展现了人工智能在视觉理解领域的最新进展。

Project Cover

swin-base-patch4-window7-224

Swin Transformer是Microsoft开发的图像分类模型,通过层级特征图构建和局部窗口注意力机制实现线性计算复杂度。模型在ImageNet-1k数据集上完成224x224分辨率训练,可作为通用主干网络支持图像分类和密集识别任务。其创新的窗口划分策略使模型在处理大尺寸图像时具有更高的效率。

Project Cover

mask2former-swin-large-coco-panoptic

Mask2Former-Swin-Large是一个基于COCO数据集训练的图像分割模型,通过多尺度可变形注意力和掩码注意力机制,实现了实例、语义和全景分割的统一处理。相比MaskFormer具有更高的性能和计算效率

Project Cover

I-live-well-foodai

这是一个采用Google视觉transformer技术开发的食品图像分类系统,通过对大量食品图片数据的深度学习,模型识别准确率达到72.33%。该系统可以精准识别各类食品图像,在智能餐饮分析、营养管理等领域具有实际应用价值。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号