1 onnx-tensorrt工具安装
onnx-tensorrt工具可以实现将onnx文件转到trt文件,首先通过如下命令安装该工具
git clone --recurse-submodules https://gitee.com/Mr_xiaolong/onnx-tensorrt.git
如图所示:
clone完成,如图所示:
进入onnx-tensorrt文件夹,创建build文件夹并进入,依次执行如下命令
cd onnx-tensorrt
mkdir build && cd build
如图所示,然后cmake,执行命令
cmake .. -DTENSORRT_ROOT=/usr/lib/python3.6/dist-packages/tensorrt/
2 报错CMake Error at CMakeLists.txt:3
报错原因:cmake版本太低
升级cmake版本,输入命令
pip install cmake --upgrade
如图所示:
继续执行命令
cmake .. -DTENSORRT_ROOT=/usr/lib/python3.6/dist-packages/tensorrt/
3 报错CMake Error:Could not find CMAKE_ROOT
报错如图所示:
安装libprotobuf-dev protobuf-compiler,输入命令
sudo apt-get install libprotobuf-dev protobuf-compiler
如图所示:
如果仍然报错,关闭终端,重新打开,进入到build文件夹
,继续执行刚才的命令
cmake .. -DTENSORRT_ROOT=/usr/lib/python3.6/dist-packages/tensorrt/
如图所示:
然后进行make,输入命令
make -j4
如图所示:
报错如图所示:
4 报错/usr/include/aarch64-linux-gnu/NvInferRuntimeCommon.h:56:10:fatal error:cuda_runtime_api.h
报错如图所示:
需要配置cuda的环境变量,输入命令
sudo gedit ~/.bashrc
如图所示,按i
开始编辑,添加环境变量
export PATH=/usr/local/cuda-10.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:$LD_LIBRARY_PATH
export CPATH=/usr/local/cuda-10.2/targets/aarch64-linux/include:$CPATH
export LD_LIBARARY_PATH=/usr/local/cuda-10.2/targets/aarch64-linux/lib:$LD_LIBARARY_PATH
export CUDA_ROOT=/usr/local/cuda-10.2
然后按Esc
退出,按:wq
保存并退出,如图所示:
如果忘记执行下面的命令
source ~/.basrc
直接继续执行make命令
make -j4
仍然报错,如图所示:
因此,需要依次执行命令
source ~/.basrc
make -j4
make成功,如图所示:
继续执行命令
sudo make install
如图所示:
输入命令,查看onnx-tensorrt的版本信息
onnx2trt -V
如图所示:
希望本文对大家有帮助,上文若有不妥之处,欢迎指正
分享决定高度,学习拉开差距