#密集预测
Official_Remote_Sensing_Mamba
RS-Mamba是一种专门针对大型遥感图像密集预测任务的创新模型。该模型首次将状态空间模型引入遥感领域,通过循环状态空间模型实现全局有效感受野,同时保持线性复杂度。RS-Mamba采用多方向选择性扫描技术,有效捕捉遥感图像的空间特征分布。在语义分割和变化检测任务中,RS-Mamba展现出卓越性能。项目提供开源代码和训练框架,为遥感图像分析研究提供了新的工具和方法。
DenseCL
DenseCL是一种自监督视觉预训练方法,通过密集对比学习提升模型在密集预测任务中的表现。该方法实现简洁,核心部分仅需10行代码,适配多种数据增强技术。实验表明,DenseCL在目标检测和语义分割任务中性能显著提升,同时保持训练效率。项目开源了预训练模型和使用指南,便于研究者在视觉任务中应用。
CLIPSelf
CLIPSelf项目提出创新自蒸馏方法,使视觉Transformer能进行开放词汇密集预测。该方法利用模型自身知识蒸馏,无需标注数据,提升了目标检测和实例分割等任务性能。项目开源代码和模型,提供详细训练测试说明,为计算机视觉研究提供重要资源。
dpt-large
DPT-Large是一种基于视觉变换器的密集预测模型,专门用于单目深度估计。该模型在140万张图像上训练,具有优秀的零样本迁移能力。DPT-Large使用ViT作为主干网络,并增加了特定的颈部和头部结构,能够精确估计图像深度信息。在多项基准测试中,DPT-Large展现出优异性能,为计算机视觉领域的深度估计任务提供了有力支持。
lotus-depth-g-v1-0
Lotus是一个开源的视觉基础模型,主要用于图像深度估计和密集预测任务。该项目提供完整的模型实现和在线演示平台,可应用于3D场景重建、深度感知等计算机视觉领域。模型采用Apache-2.0许可协议发布,支持学术研究和商业应用开发。
lotus-normal-g-v1-0
Lotus是EnVision Research团队开发的视觉基础模型,采用扩散模型技术实现高精度的视觉预测功能。该项目已在arXiv发表论文,并开源了完整代码库。通过在线演示平台,开发者可以体验其在计算机视觉领域的实际应用效果。