Jetson orin nano super YoloV8部署过程
据说在V8以上版本,就自带tensorrt加速了,于是选择了yolov8。
有c++跟python两个版本,先装个python的试试水
建议在miniconda环境下配置,比较方便。
环境
JetPack 6.2
python 3.10
torch 2.20
1.安装ultralytics
1 | pip install --upgrade pip |
2.安装gpu版本的torch
安装好后,自带的torch是cpu版本的,建议是换成gpu
运行
1 | pip uninstall -y torch torchvision |
卸载torch
由于pytorch官网提供的linux torch架构是X86的,jetson nano为arrch64,所以不能从pytorch官网下载
在动物园可以找到wheel文件,但是在这我只找到了torch,没有torchvision
最后在这里找到了线索
1 | pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl |
这样就算是装完了
3.配置环境变量
因为在conda环境下,默认是读不到系统自带的cuda跟tensorrt路径的,我们需要自己配置一下。
注意在运行一些pip install时候,不要安装上cuda 跟tensorrt了,pip安装的是用不了的
我们只需要配置一下环境变量就行
1 | #找路径 |
1 | #cuda环境变量 |
1 | export LD_LIBRARY_PATH=/usr/lib/aarch64-linux-gnu:$LD_LIBRARY_PATH |
1 | #tensorrt环境变量 |
1 | #检测是否正常 |
4.下载yolo模型,并进行格式转换
去这个地方就可以下到yolo的模型了
1 | wget https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt |
分别执行下面代码即可实现格式转换
1 | #pt转onnx |
1 | #onnx转engine |
5.实现模型推理
下面是例程
1 | from ultralytics import YOLO |
参考
Quick Start Guide: NVIDIA Jetson with Ultralytics YOLO11
Ultralytics YOLO Docs
Jetson Zoo
Installing PyTorch for Jetson Platform
nvidia pytorch download
Jetson nano部署YOLOV8并利用TensorRT加速推理实现行人检测追踪
yolo export model=yolov8n.pt format=engine device=0
yolo predict model=yolov8n.engine source=images/ device=0
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 素颜的博客~!
评论
