#Depth Anything

Depth Anything: 革新单目深度估计的基础模型

3 个月前
Cover of Depth Anything: 革新单目深度估计的基础模型
相关项目
Project Cover

awesome-foundation-and-multimodal-models

此页面介绍了多个最新的多模态和基础预训练模型,如YOLO-World、Depth Anything、EfficientSAM等。这些模型在图像分类、图像描述和零样本物体检测等任务中表现出色,并提供学术论文、GitHub项目和使用示例,帮助深入了解与应用这些前沿技术。

Project Cover

Depth-Anything

Depth Anything是一款基于大规模数据训练的单目深度估计模型。它利用150万标注图像和6200万无标注图像进行训练,提供小型、中型和大型三种预训练模型。该模型不仅支持相对深度和度量深度估计,还可用于ControlNet深度控制、场景理解和视频深度可视化等任务。在多个基准数据集上,Depth Anything的性能超越了此前最佳的MiDaS模型,展现出优异的鲁棒性和准确性。

Project Cover

depth_anything_vitl14

depth_anything_vitl14是一个深度估计模型框架,专注于从单张图像中提取深度信息。该框架采用大规模无标记数据训练方式,具备完整的模型部署文档和Python接口。开发者可通过简单的代码调用实现图像深度估计,项目同时提供在线演示平台和技术文档支持。

Project Cover

depth_anything_vits14

Depth Anything是一个基于ViT-L/14架构的深度估计模型,通过大规模无标签数据训练。模型提供Python接口,支持518x518分辨率的图像深度估计,具备良好的泛化能力。采用模块化设计,支持自定义图像预处理和批量处理功能,可集成到现有项目中。研究人员和开发者可通过Hugging Face平台快速部署使用。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号