项目介绍:BMW-TensorFlow-Training-GUI
项目概述
BMW-TensorFlow-Training-GUI是一个专为Linux环境设计的深度学习训练工具,支持CUDA 11和TensorFlow 2。该项目旨在使用户能够以最少的配置,便捷地训练先进的深度学习模型。用户只需提供标注好的数据集即可开始训练,同时可通过TensorBoard实时监控训练过程,并利用内置的推断REST API测试模型。BMW还提供了用于数据标注的辅助工具BMW-Labeltool-Lite。
项目的优势
- 易用性:只需少量配置即可开始训练,并通过GUI进行操作和监控。
- 多方式支持:支持在CPU和多个GPU(最多2个)上进行训练。
- 样本兼容:支持直接使用由BMW-Labeltool-Lite标注的数据集。
- 预训练模型:可以利用基于COCO数据集的预训练模型权重快速开始训练。
安装前提
要运行此项目,用户需确保以下软件已在Ubuntu 18.04系统上安装:
- NVIDIA驱动(至少版本418.x)
- 最新稳定版的Docker CE
- NVIDIA Docker 2
- Docker-Compose
项目设置
该项目设置支持自动和手动两种方式。通过自动设置脚本,用户可以快速检查并安装所需软件,并选择训练解决方案的构建架构(GPU/CPU)。在手动设置中,通过不同的命令检查并安装所需的软件和驱动程序。
数据集结构
数据集应按照规定的目录结构组织:
├──datasets/
├──sample_dataset/
├── images
│ ├── img_1.jpg
│ └── img_2.jpg
├── labels
│ ├── json
│ │ ├── img_1.json
│ │ └── img_2.json
│ └── pascal
│ ├── img_1.xml
│ └── img_2.xml
└── objectclasses.json
重量级解决方案
该工具提供两种训练权重下载策略:
- 中量级:按照需求在线下载特定的预训练模型权重。
- 重量级:默认下载所有在线支持的预训练模型权重。
项目构建
为在不同模式下部署训练工作流,请在项目根目录执行相应的命令:
- GPU模式:
docker-compose -f build_gpu.yml build
- CPU模式:
docker-compose -f build_cpu.yml build
项目运行
在部署后运行项目的命令如下:
- GPU模式:
docker-compose -f run_gpu.yml up
- CPU模式:
docker-compose -f run_cpu.yml up
使用指南
用户可以通过浏览器访问部署的应用,地址通常为localhost:4200
或127.0.0.1:4200
。项目的使用步骤包括准备数据集、指定一般设置、配置超参数、监控训练、下载并测试模型等。
常见问题
在项目运行中可能出现的一些常见问题及其解决方案已在文档中列出,包括容器命名问题、图像不支持问题等。
致谢
项目得以顺利进行和拓展,需特别感谢来自inmind.ai和BMW Innovation Lab团队的贡献者们。
引用方式
如在研究中使用此项目,请使用提供的Bibtex条目进行引用:
@misc{bmwtrainingtool,
author = {BMW TechOffice MUNICH},
title = {TensorFlow Training GUI},
year = {2022},
}
通过易于理解的界面和详尽的指导文档,BMW-TensorFlow-Training-GUI为用户提供了一个功能强大且直观的训练环境,大大简化了深度学习模型的训练流程。