Windows使用Paddle训练好的模型进行OpenVino推理引擎下的部署
阿里云国内75折 回扣 微信号:monov8 |
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6 |
目录
一. Openvino下载
根据Paddle官方的描述当前检测模型转换为openvino格式是有问题的暂时只支持分割和分类模型且openvino版本最好为2021.3(已经过测试兼容性较好)。
Openvino 2021.3 下载地址
安装过程可以参照OpenVino官方安装步骤来一步步 安装
安装完毕后目录如下
运行install.exe
安装推理组件后的目录
二. 准备模型
2.1 导出Paddle Inference模型
由于目前Openvino只支持比较老的模型这里以PaddleX训练的mobilenetv3_large模型为例导出为推理格式模型paddle inference
安装PaddleX后执行以下命令进行模型导出
paddlex --export_inference --model_dir=./output/deeplabv3p_r50vd/best_model/ --save_dir=./inference_model
2.2 转换为ONNX模型
将paddle inference模型转为onnx模型
# model_dir需要ResNet50解压后的路径
paddle2onnx --model_dir E:/Fileresipority/cloth_check/mobilenetv3_large/inference_model/inference_model --model_filename model.pdmodel --params_filename model.pdiparams --save_file model.onnx --enable_dev_version True
转换后的目录
2.3 转换为ONNX模型
2.3.1 获取部署代码
git clone https://github.com/PaddlePaddle/PaddleX.git
2.3.2 环境准备
1.在OpenCV官网下载适用于Windows平台的3.4.6版本下载链接
2.运行下载的可执行文件将OpenCV解压至指定目录例如D:\projects\opencv。
3.配置环境变量如下流程所示
我的电脑->属性->高级系统设置->环境变量
在系统变量中找到Path如没有自行创建并双击编辑
新建将opencv路径填入并保存如E:\Fileresipority\cloth_check\OpenCV\opencv\build\x64\vc15\bin
在进行cmake构建时会有相关提示请注意vs2019的输出。
4.点击下载gflags依赖包解压至deps目录
2.3.3 编译
1.打开Visual Studio 2019 Community点击继续但无需代码
2. 点击 文件
->打开
->CMake
选择C++预测代码所在路径例如E:\Fileresipority\cloth_check\PaddleX-develop\deploy\cpp
并打开CMakeList.txt
- 打开项目时可能会自动构建。由于没有进行下面的依赖路径设置会报错这个报错可以先忽略:
- 点击浏览分别设置编译选项指定gflag、OpenCV、OpenVINO的路径也可以点击右上角的“编辑 JSON”直接修改json文件然后保存点 项目->生成缓存。
5. 保存并生成CMake缓存
设置完成后
, 点击上图中保存并生成CMake缓存以加载变量。然后我们可以看到vs的输出会打印CMake生成的过程出现CMake 生成完毕且无报错代表生成完毕。
发现报错