#Depth Anything
awesome-foundation-and-multimodal-models - 多模态与基础模型的最新研究进展
foundation modelmultimodal modelYOLO-WorldDepth AnythingEfficientSAMGithub开源项目
此页面介绍了多个最新的多模态和基础预训练模型,如YOLO-World、Depth Anything、EfficientSAM等。这些模型在图像分类、图像描述和零样本物体检测等任务中表现出色,并提供学术论文、GitHub项目和使用示例,帮助深入了解与应用这些前沿技术。
Depth-Anything - 大规模无标注数据驱动的强大单目深度估计模型
Depth Anything深度估计计算机视觉人工智能图像处理Github开源项目
Depth Anything是一款基于大规模数据训练的单目深度估计模型。它利用150万标注图像和6200万无标注图像进行训练,提供小型、中型和大型三种预训练模型。该模型不仅支持相对深度和度量深度估计,还可用于ControlNet深度控制、场景理解和视频深度可视化等任务。在多个基准数据集上,Depth Anything的性能超越了此前最佳的MiDaS模型,展现出优异的鲁棒性和准确性。
depth_anything_vitl14 - 先进的计算机视觉深度估计开源框架
图像处理计算机视觉开源项目深度学习模型深度估计Depth AnythingGithubHuggingface
depth_anything_vitl14是一个深度估计模型框架,专注于从单张图像中提取深度信息。该框架采用大规模无标记数据训练方式,具备完整的模型部署文档和Python接口。开发者可通过简单的代码调用实现图像深度估计,项目同时提供在线演示平台和技术文档支持。
depth_anything_vits14 - 大规模无标签数据训练的开源深度估计工具
图像处理计算机视觉开源项目模型深度估计Depth Anything深度感知GithubHuggingface
Depth Anything是一个基于ViT-L/14架构的深度估计模型,通过大规模无标签数据训练。模型提供Python接口,支持518x518分辨率的图像深度估计,具备良好的泛化能力。采用模块化设计,支持自定义图像预处理和批量处理功能,可集成到现有项目中。研究人员和开发者可通过Hugging Face平台快速部署使用。