开这个系列文章,记录自己在项目中使用OpenCV所走的步骤流程,方便以后再次使用.如果有不正确的地方,欢迎指正.
OpenCV在其官网上,已经发布有iOS版的库,但是只有核心模块的功能,扩展模块(比如:人脸识别)的功能并没有添加进去.如果只是单纯使用核心模块的功能,那么可以直接去官网下载,或则用cocoapods集成(这个方法集成好像有问题了,推荐去官网下载,拖进项目.2017.3.28标记),这个是很方便,也没什么难点.
现在记录的是,怎么把扩展模块的功能,也集成到opencv2.framework中,方便我们集成到项目中.
首先,去github上下载OpenCV的核心模块与扩展模块,也就是打开网页之后的opencv,opencv_contrib两个项目都需要下载. 然后我们需要下载一个CMake.关于这个是用来干嘛的,请自行百度,我也不知道.最后还需要下载一个编译过程需要下载的一个包 protobuf-cpp-3.1.0.tar.gz ,下载页面已经提醒你放在哪里了,具体我后面再说.
到这,我们前期工作已经做完了,接下来就是把两个模块整合在一起了.首先把opencv项目放在一个文件夹中,路径最好不要有中文,防止编译出错. 打开opencv_contrib项目中modules文件夹,复制里面所有的文件夹,粘贴到opencv项目的modules文件夹中.当然,你也根据个人需要只复制你需要功能,具体可以查看OpenCV的文档介绍.完成之后,再把我们下载的 protobuf-cpp-3.1.0.tar.gz 压缩包放到opencv项目modules/dnn/.download/bd5e3eed635a8d32e2b99658633815ef/v3.1.0 ,因为.download是隐藏文件夹,你可以直接 Finder 右键前往文件夹,直接输入路径进去.
现在就到编译阶段了.打开opencv项目的platforms找到你要的环境,点击进去,查看readme.txt,里面就有相关的终端命令.我是iOS开发,所以只尝试了iOS的.
python命令Mac是自带的,可以直接执行.而我们要做的就是,把build_framework.py的路径弄对. 你可以在终端cd到iOS目录下,然后执行 $ python build_framework.py ios ,也可以直接使用绝对路径. 不过在执行,需要先执行一句 $ PATH=$PATH:/Applications/CMake.app/Contents/bin ,因为我们是直接安装CMake APP,终端没有相关的环境,会出现
anil-Mac-2s-Mac-mini:opencv pws-mac-2$ python platforms/ios/build_framework.py ios
Executing: ['cmake', '-GXcode', '-DCMAKE_BUILD_TYPE=Release', '-DCMAKE_TOOLCHAIN_FILE=/Users/pws-mac-2/Desktop/opencv/platforms/ios/cmake/Toolchains/Toolchain-iPhoneOS_Xcode.cmake', '-DCMAKE_INSTALL_PREFIX=install', '-DENABLE_NEON=ON', '/Users/pws-mac-2/Desktop/opencv', '-DCMAKE_C_FLAGS=-fembed-bitcode', '-DCMAKE_CXX_FLAGS=-fembed-bitcode'] in /Users/pws-mac-2/Desktop/opencv/ios/build/armv7-iPhoneOS
的错误,这个我是在*找到的解决方法.
弄好后,终端就开始执行命令了,这个时候iOS目录下会生成一个iOS文件夹,打开进去里面还有一个build.我们就不用管了,等命令执行完成之后,在这个文件夹中就会有一个新的opencv2.framework,你集成到项目里面,就可以看到比官网下载的opencv2.framework多了扩展模块了.然后就是添加相关的系统库了.其中还会有两个错误,报错是NO 只要把NO修改成 NO_EXPOSURE_COMPENSATOR 或 NO_EXPOSURE_COMPENSATOR =0 也行.
接下来编译项目应该是没什么问题了.使用过程中 opencv.hpp 并没有引入扩展模块的头文件,所以你要用到扩展模块的功能,还需要自己引入扩展模块的头文件.
集成就这么多了,以后遇到新的问题,再来修改.