Project Icon

YOLOv8-multi-task

轻量级神经网络实现实时多任务目标检测与分割

YOLOv8-multi-task项目提出了一种轻量级神经网络模型,可同时执行目标检测、可行驶区域分割和车道线检测等多任务。该模型使用自适应拼接模块和通用分割头设计,在提高性能的同时保持高效率。实验表明,该模型在推理速度和可视化效果方面优于现有方法,适用于需要实时处理的多任务场景。

一次性实时通用多任务识别

本仓库(Yolov8多任务)是论文《一次性实时通用多任务识别》的官方PyTorch实现。

一次性实时通用多任务识别

作者: 王家园吴乔明 :email:张宁

(:email:) 通讯作者

IEEE车辆技术汇刊


A-YOLOM示意图

YOLOv8多任务

贡献

  • 我们开发了一个轻量级模型,能将三个任务整合到一个统一的模型中。这对需要实时处理的多任务特别有益。
  • 我们专门为分割架构的颈部设计了一个新颖的自适应拼接模块。该模块可以自适应地拼接特征,无需手动设计,进一步增强了模型的通用性。
  • 我们设计了一个轻量级、简单且通用的分割头。我们对同类型的任务头使用统一的损失函数,这意味着我们不需要为特定任务定制设计。它仅由一系列卷积层构建而成。
  • 我们基于公开可用的自动驾驶数据集进行了广泛的实验,结果表明我们的模型在性能上优于现有工作,特别是在推理时间和可视化方面。此外,我们还使用真实道路数据集进行了进一步的实验,结果也表明我们的模型明显优于最先进的方法。

结果

参数和速度

模型参数量FPS (bs=1)FPS (bs=32)
YOLOP7.9M26.0134.8
HybridNet12.83M11.726.9
YOLOv8n(检测)3.16M102802.9
YOLOv8n(分割)3.26M82.55610.49
A-YOLOM(n)4.43M39.9172.2
A-YOLOM(s)13.61M39.796.2

交通目标检测结果

模型召回率 (%)mAP50 (%)
MultiNet81.360.2
DLT-Net89.468.4
Faster R-CNN81.264.9
YOLOv5s86.877.2
YOLOv8n(检测)82.275.1
YOLOP88.676.5
A-YOLOM(n)85.378.0
A-YOLOM(s)86.981.1

可行驶区域分割结果

模型mIoU (%)
MultiNet71.6
DLT-Net72.1
PSPNet89.6
YOLOv8n(分割)78.1
YOLOP91.6
A-YOLOM(n)90.5
A-YOLOM(s)91.0

车道线检测结果:

模型准确率 (%)IoU (%)
EnetN/A14.64
SCNNN/A15.84
ENet-SADN/A16.02
YOLOv8n(分割)80.522.9
YOLOP84.826.5
A-YOLOM(n)81.328.2
A-YOLOM(s)84.928.8

消融研究 1: 自适应拼接模块:

训练方法召回率 (%)mAP50 (%)mIoU (%)准确率 (%)IoU (%)
YOLOM(n)85.277.790.680.826.7
A-YOLOM(n)85.37890.581.328.2
YOLOM(s)86.981.190.983.928.2
A-YOLOM(s)86.981.19184.928.8

消融研究 2: 不同多任务模型和分割结构的结果:

模型参数量mIoU (%)准确率 (%)IoU (%)
YOLOv8(分割da)100427578.1--
YOLOv8(分割ll)1004275-80.522.9
YOLOv8(多任务)200855084.281.724.3
YOLOM(n)1588090.680.826.7

YOLOv8(多任务)和YOLOM(n)仅显示两个分割头的总参数。它们实际上有三个头,我们忽略了检测头的参数,因为这是针对分割结构的消融研究。

注意:


可视化

实际道路

实际道路


要求

本代码库使用Python==3.7.16PyTorch==1.13.1开发。

你可以使用一张1080Ti GPU,批量大小设为16。这样就足够了,只是训练时间会更长。我们推荐使用4090或更强大的GPU,这样会更快。

我们强烈建议你创建一个纯净的环境,并按照我们的说明来构建你的环境。否则,你可能会遇到一些问题,因为YOLOv8有许多机制会自动检测你的环境包。然后它会改变一些变量值,进而影响代码运行。

cd YOLOv8-multi-task
pip install -e .

数据准备和预训练模型

下载

  • 这里下载图像。

  • 预训练模型:A-YOLOM # 包括两个版本,尺度"n"和"s"。

  • 这里下载检测标注。

  • 这里下载可驾驶区域分割标注。

  • 这里下载车道线分割标注。

我们建议数据集目录结构如下:

# id代表对应关系
├─数据集根目录
│ ├─images
│ │ ├─train2017
│ │ ├─val2017
│ ├─detection-object
│ │ ├─labels
│ │ │ ├─train2017
│ │ │ ├─val2017
│ ├─seg-drivable-10
│ │ ├─labels
│ │ │ ├─train2017
│ │ │ ├─val2017
│ ├─seg-lane-11
│ │ ├─labels
│ │ │ ├─train2017
│ │ │ ├─val2017

./ultralytics/datasets/bdd-multi.yaml中更新你的数据集路径。

训练

你可以在./ultralytics/yolo/cfg/default.yaml中设置训练配置。

python train.py

你可以在train.py中更改设置

# 设置

sys.path.insert(0, "/home/jiayuan/ultralytics-main/ultralytics")
# 你应该将路径更改为你本地的"ultralytics"文件路径
model = YOLO('/home/jiayuan/ultralytics-main/ultralytics/models/v8/yolov8-bdd-v4-one-dropout-individual.yaml', task='multi')
# 你需要更改模型路径为你的路径。
# 模型文件保存在"./ultralytics/models/v8"下
model.train(data='/home/jiayuan/ultralytics-main/ultralytics/datasets/bdd-multi-toy.yaml', batch=4, epochs=300, imgsz=(640,640), device=[4], name='v4_640', val=True, task='multi',classes=[2,3,4,9,10,11],combine_class=[2,3,4,9],single_cls=True)
  • data:请将"data"路径更改为你的路径。你可以在"./ultralytics/datasets"下找到它。

  • device:如果你有多个GPU,请列出你的GPU编号,例如[0,1,2,3,4,5,6,7,8]

  • name:你的项目名称,结果和训练好的模型将保存在"./ultralytics/runs/multi/你的项目名称"下

  • task:如果你想使用多任务模型,请在这里保持"multi"

  • classes:你可以更改此项来控制训练中的分类,10和11表示可驾驶区域和车道线分割。你可以在"./ultralytics/datasets/bdd-multi.yaml"下创建或更改数据集映射

  • combine_class:表示模型将"classes"合并为一个类,例如我们的项目将"汽车"、"公交车"、"卡车"和"火车"合并为"车辆"。

  • single_cls:这将把整个检测类别组合成一个类别。例如,如果你的数据集中有7个类别,当你使用"single_cls"时,它会自动将它们组合成一个类别。当你设置single_cls=False或从model.train()中删除single_cls时,请按照下面的注意事项更改dataset.yaml和model.yaml中的"tnc",dataset.yaml中的"nc_list",以及检测头的输出。

评估

你可以在./ultralytics/yolo/cfg/default.yaml中设置评估配置

python val.py

你可以在val.py中更改设置

# 设置

sys.path.insert(0, "/home/jiayuan/yolom/ultralytics")
# 与训练相同,你应该将路径更改为你的路径。

model = YOLO('/home/jiayuan/ultralytics-main/ultralytics/runs/best.pt')
# 请将此路径更改为你训练好的模型。你可以使用我们提供的预训练模型或你在"./ultralytics/runs/multi/Your Project Name/weight/best.pt"下的模型
metrics = model.val(data='/home/jiayuan/ultralytics-main/ultralytics/datasets/bdd-multi.yaml',device=[3],task='multi',name='val',iou=0.6,conf=0.001, imgsz=(640,640),classes=[2,3,4,9,10,11],combine_class=[2,3,4,9],single_cls=True)
  • data:请将"data"路径更改为你的路径。你可以在"./ultralytics/datasets"下找到它
  • device:如果你有多个GPU,请列出你的GPU编号,例如[0,1,2,3,4,5,6,7,8]。我们不建议你在验证时使用多GPU,因为通常一个GPU就足够了。
  • speed:如果你想计算FPS,你应该设置"speed=True"。这个FPS计算方法参考自HybridNets(代码)
  • single_cls:应该保持与训练时相同的布尔值。

预测

python predict.py

你可以在predict.py中更改设置

# 设置

sys.path.insert(0, "/home/jiayuan/ultralytics-main/ultralytics")
number = 3 #输入你工作中的任务数量,如果你有1个检测和3个分割任务,这里应该是4。
model = YOLO('/home/jiayuan/ultralytics-main/ultralytics/runs/best.pt')  
model.predict(source='/data/jiayuan/dash_camara_dataset/daytime', imgsz=(384,672), device=[3],name='v4_daytime', save=True, conf=0.25, iou=0.45, show_labels=False)
# 预测结果将保存在"runs"文件夹下

注意:如果你想使用我们提供的预训练模型,请确保你的输入图像大小为(720,1280),并保持"imgsz=(384,672)"以达到最佳性能,你可以更改"imgsz"的值,但结果可能会不同,因为它与训练尺寸不同。

  • source:你的输入或想要预测的图像文件夹。
  • show_labels=False:关闭标签的显示。请记住,当你使用"single cell=True"的预训练模型时,标签默认会显示第一个类别名称。
  • boxes=False:关闭分割任务的边界框。

注意

  • 这个代码很容易扩展到任何多分割和检测任务,只需修改模型yaml和数据集yaml文件信息,并按照我们的标签格式创建你的数据集,请记住,你应该在检测任务名称中保留"det",在分割任务名称中保留"seg"。然后代码就可以工作了。无需修改基本代码,我们已经在基本代码中完成了必要的工作。

  • 请记住,当你更改检测任务的类别数量时,请更改dataset.yaml和model.yaml中的"tnc"。"tcn"表示总类别数,包括检测和分割。例如,如果你有7个检测类别,1个分割和另一个分割,"tnc"应该设置为9。

    • "nc_list"也需要更新,它应该与你的"labels_list"顺序匹配。例如,如果你的"labels_list"中有detection-object、seg-drivable、seg-lane,那么"nc_list"应该是[7,1,1]。这意味着你在detection-object中有7个类别,在drivable分割中有1个类别,在lane分割中有1个类别。

    • 你还需要更改检测头输出数量,这在model.yaml中,例如" - [[15, 18, 21], 1, Detect, [int number for detection class]] # 36 Detect(P3, P4, P5)",请将"int number for detection class"更改为你的检测任务中的类别数量,按照上面的例子,这里应该是7。

  • 如果你想更改一些基本代码来实现你的想法,请搜索"###### Jiayuan"或"######Jiayuan",我们基于YOLOv8(代码)更改了这些部分,以在单个模型中实现多任务。

引用

如果你发现我们的论文和代码对你的研究有用,请考虑给予星标:star:和引用:pencil::

@ARTICLE{wang2024you,
  author={Wang, Jiayuan and Wu, Q. M. Jonathan and Zhang, Ning},
  journal={IEEE Transactions on Vehicular Technology}, 
  title={You Only Look at Once for Real-Time and Generic Multi-Task}, 
  year={2024},
  pages={1-13},
  keywords={Multi-task learning;panoptic driving perception;object detection;drivable area segmentation;lane line segmentation},
  doi={10.1109/TVT.2024.3394350}}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号