深度学习算法C++部署代码开源库说明文档

时间:2020-12-27 01:08:25

一、前言

随着技术的不断发展,深度学习算法也在不断更新迭代,无论是2D目标检测、3D目标检测,还是语义分割、实例分割,车道线检测、深度估计等领域相关算法也在不断更新,虽然可选择的算法很多,但是我们面临的一个重要的问题是如何将常用的深度学习算法更加快捷方便的去部署到自己的硬件上,近几年来,随着AI芯片的不断发展,各大厂商相继推出自己的高算力AI芯片,也相继开发属于自家硬件的AI工具链,在此之前,各大自动驾驶公司使用最多的当属英伟达的芯片,起初有低算力的TX2,再到较高算力的Xavier,去年更是发布了INT8算力高达256TOPS的Orin,算力的提升及生态的完善使得英伟达的硬件在市场上占据主导位置,英伟达的工具链CUDA、TensorRT也在不断更新迭代,新版本的更新不断覆盖低版本无法解决的问题,但是英伟达的芯片面临的问题便是价格昂贵,虽然与英伟达同处竞争行列的高通也有属于自家的AI芯片及工具链,但是SNPE、OPENCL一直不温不火,无论是生态还是算力均不如英伟达,不过高通的8155及相关系列AI芯片主要用于智能驾驶座舱的开发,随着国产化的趋势,国内很多家芯片公司也开始纷纷推出自己的AI芯片,比如地平线、华为等,不同的芯片都有着自己的部署框架。

二、深度学习模型部署综述

参考https://mp.weixin.qq.com/s/EAO7bLPNDthw5gOWmZvdNw

三、深度学习模型部署开源库

源码:https://github.com/yhwang-hub/dl_model_deploy
该开源项目记录了经典深度学习模型在不同框架(x86)中的部署,致力于帮助大