Project Icon

DUSt3R_ViTLarge_BaseDecoder_512_dpt

ViT架构的多分辨率3D几何视觉模型用于深度估计

该模型使用ViT-Large编码器和ViT-Base解码器构建,采用DPT结构设计。支持处理512x384至512x160等多种分辨率图像,为3D几何视觉提供简化实现方案。开发者可通过PyTorch快速部署使用,模型由NAVER开源并遵循CC BY-NC-SA 4.0许可协议。

dpt-large - 基于视觉变换器的高精度单目深度估计模型
DPT-LargeGithubHuggingface单目深度估计密集预测开源项目模型视觉变换器计算机视觉
DPT-Large是一种基于视觉变换器的密集预测模型,专门用于单目深度估计。该模型在140万张图像上训练,具有优秀的零样本迁移能力。DPT-Large使用ViT作为主干网络,并增加了特定的颈部和头部结构,能够精确估计图像深度信息。在多项基准测试中,DPT-Large展现出优异性能,为计算机视觉领域的深度估计任务提供了有力支持。
dpt-beit-large-512 - BEiT架构驱动的高性能单目深度估计模型
BEiTDPTGithubHuggingfaceMiDaS单目深度估计开源项目模型计算机视觉
dpt-beit-large-512是一款基于BEiT架构的单目深度估计模型,采用512x512高分辨率在140万张图像上训练。模型能从单一图像推断详细深度信息,在多项基准测试中表现卓越。作为MiDaS v3.1系列中的佼佼者,该模型在3D重建、自动驾驶等计算机视觉任务中展现出强大的深度估计能力。
MASt3R_ViTLarge_BaseDecoder_512_catmlpdpt_metric - 基于3D的高精度图像匹配技术
3D视觉GithubHuggingfaceMASt3R图像匹配开源项目模型深度学习模型计算机视觉
MASt3R是一款开源的图像到3D匹配模型,采用ViT-Large编码器和ViT-Base解码器架构。它结合了CatMLP和DPT技术,能够处理多种分辨率的图像输入。该模型在GitHub上提供了完整的代码和使用说明,适用于需要高精度3D视觉的研究和应用。MASt3R为计算机视觉领域的研究人员和开发者提供了一个强大的工具,有助于推动3D视觉技术的发展。
dpt-beit-base-384 - 基于BEiT主干的DPT模型实现单目深度估计
DPTGithubHuggingface图像处理开源项目模型深度估计神经网络计算机视觉
DPT (Dense Prediction Transformer) 是一个基于BEiT主干的模型,专门用于单目深度估计。该模型在140万张图像上训练,可进行零样本深度估计。采用Transformer架构,具备强大的密集预测能力,能生成高质量深度图。模型可通过Python代码或pipeline API轻松使用,为计算机视觉任务提供了有力工具。
Depth-Anything-V2-Base - 更快更精细的单目深度估计模型
Depth-Anything-V2GithubHuggingface图像处理开源项目模型深度估计深度学习计算机视觉
Depth-Anything-V2是一款先进的单目深度估计模型,由595K合成标记图像和62M+真实未标记图像训练而成。它在细节表现、鲁棒性和效率上都超越了V1版本,处理速度比基于SD的模型快10倍。采用ViT-B架构,该模型为计算机视觉领域提供了高效的深度预测工具,尤其适用于需要精确深度信息的应用场景。
dust3r - 简化几何3D视觉重建的开源项目
3D重建DUSt3RGithub开源项目深度学习计算机视觉
dust3r是一个开源的3D视觉重建项目,旨在简化几何3D视觉处理。该项目提供了一个能够从多张图像重建3D场景的模型。dust3r包含交互式演示功能、API接口和多个预训练模型,可适应不同分辨率和应用场景。项目还提供了训练指南和数据集预处理脚本,方便研究人员进行自定义开发。
dpt-hybrid-midas - 基于Vision Transformer的单目深度估计模型
DPT-HybridGithubHuggingfaceVision Transformer单目深度估计开源项目模型深度估计计算机视觉
DPT-Hybrid-MiDaS是一款基于Vision Transformer的单目深度估计模型。该模型在140万张图像上训练,利用ViT-hybrid作为主干网络,支持零样本深度估计。在多个数据集上,DPT-Hybrid-MiDaS展现出优于传统方法的性能。这一开源模型为计算机视觉领域的研究人员和开发者提供了有力工具,可用于进一步的微调和应用开发。
vit_large_patch14_dinov2.lvd142m - 基于DINOv2的大规模Vision Transformer视觉特征提取模型
DINOv2GithubHuggingfaceViTtimm图像分类开源项目模型特征提取
这是一个基于Vision Transformer架构的图像特征提取模型,采用DINOv2自监督学习方法在LVD-142M数据集上预训练。模型包含3.044亿参数,支持518x518像素输入,适用于图像分类和特征提取任务。该模型提供了完整的加载、预处理和推理示例代码,可应用于需要高质量视觉特征表示的各种计算机视觉场景。
vit_small_patch14_reg4_dinov2.lvd142m - 基于自监督学习的视觉Transformer用于图像特征提取和分类
GithubHuggingfaceVision Transformer图像分类图像特征开源项目模型深度学习自监督学习
该Vision Transformer (ViT) 图像特征模型通过自监督学习进行预训练,基于LVD-142M数据集并采用DINOv2方法。模型专为图像分类和特征提取设计,包含22.1M参数和29.6 GMAC的运算能力。其注册方法增强了处理518x518像素图像的效果,DINOv2技术有助于无监督视觉特征学习。此模型在图像嵌入应用中表现优异,并支持多种视觉分析与研究。用户可使用timm库简单调用和部署模型,适合多种机器学习场景。
depth_anything_vits14 - 大规模无标签数据训练的开源深度估计工具
Depth AnythingGithubHuggingface图像处理开源项目模型深度估计深度感知计算机视觉
Depth Anything是一个基于ViT-L/14架构的深度估计模型,通过大规模无标签数据训练。模型提供Python接口,支持518x518分辨率的图像深度估计,具备良好的泛化能力。采用模块化设计,支持自定义图像预处理和批量处理功能,可集成到现有项目中。研究人员和开发者可通过Hugging Face平台快速部署使用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号