Windows使用Paddle训练好的模型进行OpenVino推理引擎下的部署

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

目录

一. Openvino下载

根据Paddle官方的描述当前检测模型转换为openvino格式是有问题的暂时只支持分割和分类模型且openvino版本最好为2021.3(已经过测试兼容性较好)。
Openvino 2021.3 下载地址
安装过程可以参照OpenVino官方安装步骤来一步步 安装
安装完毕后目录如下
在这里插入图片描述
运行install.exe安装推理组件后的目录
在这里插入图片描述

二. 准备模型

2.1 导出Paddle Inference模型

由于目前Openvino只支持比较老的模型这里以PaddleX训练的mobilenetv3_large模型为例导出为推理格式模型paddle inference
在这里插入图片描述
安装PaddleX后执行以下命令进行模型导出

paddlex --export_inference --model_dir=./output/deeplabv3p_r50vd/best_model/ --save_dir=./inference_model

2.2 转换为ONNX模型

将paddle inference模型转为onnx模型

# model_dir需要ResNet50解压后的路径
paddle2onnx --model_dir  E:/Fileresipority/cloth_check/mobilenetv3_large/inference_model/inference_model  --model_filename model.pdmodel     --params_filename model.pdiparams      --save_file model.onnx   --enable_dev_version True

在这里插入图片描述
转换后的目录
在这里插入图片描述

2.3 转换为ONNX模型

2.3.1 获取部署代码

git clone https://github.com/PaddlePaddle/PaddleX.git

在这里插入图片描述

2.3.2 环境准备

1.在OpenCV官网下载适用于Windows平台的3.4.6版本下载链接
在这里插入图片描述
2.运行下载的可执行文件将OpenCV解压至指定目录例如D:\projects\opencv。
3.配置环境变量如下流程所示
我的电脑->属性->高级系统设置->环境变量
在这里插入图片描述

在系统变量中找到Path如没有自行创建并双击编辑
新建将opencv路径填入并保存如E:\Fileresipority\cloth_check\OpenCV\opencv\build\x64\vc15\bin
在进行cmake构建时会有相关提示请注意vs2019的输出。
4.点击下载gflags依赖包解压至deps目录

2.3.3 编译

1.打开Visual Studio 2019 Community点击继续但无需代码
在这里插入图片描述
2. 点击 文件->打开->CMake
选择C++预测代码所在路径例如E:\Fileresipority\cloth_check\PaddleX-develop\deploy\cpp并打开CMakeList.txt
在这里插入图片描述

  1. 打开项目时可能会自动构建。由于没有进行下面的依赖路径设置会报错这个报错可以先忽略:
    在这里插入图片描述

在这里插入图片描述

  1. 点击浏览分别设置编译选项指定gflag、OpenCV、OpenVINO的路径也可以点击右上角的“编辑 JSON”直接修改json文件然后保存点 项目->生成缓存。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
5. 保存并生成CMake缓存
在这里插入图片描述
设置完成后, 点击上图中保存并生成CMake缓存以加载变量。然后我们可以看到vs的输出会打印CMake生成的过程出现CMake 生成完毕且无报错代表生成完毕。
发现报错
在这里插入图片描述

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: windows