DepthAI 项目简介
DepthAI 是一个用于人工智能计算的强大开源平台,方便开发者在具有深度传感器和人工智能处理能力的设备上运行复杂的神经网络模型。这个系统不仅可以进行视频录制,还支持多种神经网络的加载和运行,方便用户进行不同的机器视觉任务。
安装指南
要使用 DepthAI,用户首先需要克隆项目代码库。可以通过以下命令获取代码:
git clone --recursive https://github.com/luxonis/depthai.git
若已克隆过代码库,可以通过以下命令更新子模块:
git pull --recurse-submodules
安装分为两个步骤:
-
一次性安装:安装过程中需下载所有必要的软件包,以确保Demo正常运行。
sudo curl -fL https://docs.luxonis.com/install_dependencies.sh | bash
可根据不同操作系统查看相应的安装指南。
-
Python 依赖安装:确保 Python 解释器拥有所有必需的库。这一步可以多次执行,且建议在每次更新Demo后执行。
python3 install_requirements.py
Docker 支持
DepthAI 也支持通过 Docker 启动:
Demo 的使用:
docker run --privileged -v /dev/bus/usb:/dev/bus/usb --device-cgroup-rule='c 189:* rmw' -e DISPLAY=$DISPLAY -v /tmp/.X11-unix:/tmp/.X11-unix --network host --rm -i -t luxonis/depthai:latest python3 /depthai/depthai_demo.py
校准工具:
docker run --privileged -v /dev/bus/usb:/dev/bus/usb --device-cgroup-rule='c 189:* rmw' -e DISPLAY=$DISPLAY -v /tmp/.X11-unix:/tmp/.X11-unix --network host --rm -i -t luxonis/depthai:latest python3 /depthai/calibrate.py [parameters]
使用指引
DepthAI 提供多种使用方式,用户可以通过命令行参数或 QT 界面来探索各种功能,包括:
-
命令行界面:通过指定不同参数来运行模型,例如:
python3 depthai_demo.py -gt cv
-
QT 界面:提供可点击的图形化界面,便于操作。
DepthAI 应用
DepthAI 提供了两种主要应用:UVC 和 录制工具。
-
UVC 应用:允许用户将 OAK 相机用作网络摄像头。
-
录制工具:能够录制和同步视频流,支持输出为多种格式如 .mp4 或 .bag。
支持的模型
目前 DepthAI 支持多种 AI 模型,用户可以通过 -cnn
参数选择模型,如下所示:
- face-detection-adas-0001
- human-pose-estimation-0001
- mobilenet-ssd
- tiny-yolo-v3
- 等其他
使用统计
默认情况下,DepthAI Demo 脚本将收集匿名使用统计数据,这些数据用于改进用户体验。用户可以随时通过禁用统计信息来保护隐私。
问题反馈
如果在使用过程中遇到问题,可以执行以下步骤帮助我们快速分析和解决问题:
- 运行
log_system_information.sh
,并提供输出信息。 - 提供设备照片或型号。
- 描述预期结果。
- 描述实际结果。
- 提供使用的代码片段。
- 提供控制台输出信息。
DepthAI 项目正在不断发展,开发者社区对用户的反馈非常重视,以便解决各种使用问题。