#YOLO-World

awesome-foundation-and-multimodal-models - 多模态与基础模型的最新研究进展
foundation modelmultimodal modelYOLO-WorldDepth AnythingEfficientSAMGithub开源项目
此页面介绍了多个最新的多模态和基础预训练模型,如YOLO-World、Depth Anything、EfficientSAM等。这些模型在图像分类、图像描述和零样本物体检测等任务中表现出色,并提供学术论文、GitHub项目和使用示例,帮助深入了解与应用这些前沿技术。
ComfyUI-YoloWorld-EfficientSAM - YOLO-World + EfficientSAM for ComfyUI 的非官方实现,提供高效的对象检测与实例分割功能
YOLO-WorldEfficientSAM对象检测实例分割ComfyUIGithub开源项目
该项目非官方实现了YOLO-World和EfficientSAM,通过融合这两个模型,提供高效的对象检测与实例分割功能。版本V2.0新增了蒙版分离与提取功能,支持指定蒙版单独输出,可处理图像和视频。项目特点包括支持加载多种YOLO-World和EfficientSAM模型,提供检测框厚度、置信度阈值、IoU阈值等配置选项,以提升检测与分割的精准性。详细的视频演示和安装指南,使用户能够轻松上手,体验高效的图像处理能力。
YOLO-World - 下一代实时开放词汇目标检测模型
YOLO-World目标检测开放词汇预训练模型零样本学习Github开源项目
YOLO-World是一款创新的实时开放词汇目标检测模型。经过大规模数据集预训练,它展现出卓越的开放词汇检测和定位能力。采用'先提示后检测'范式,YOLO-World通过重参数化技术实现高效的自定义词汇推理。该模型支持零样本目标检测、分割等多种任务,并开源了在线演示、预训练权重和微调代码,为计算机视觉领域提供了实用的研究与应用工具。