跳转至

【GiantPandaCV导语】本文为大家介绍了一个caffe部署yolov5 模型的教程,并开源了全部代码。主要是教你如何搭建caffe推理环境,对yolov5模型做onnx格式转换,onnx模型转caffe模型,实测在1070显卡做到了11ms一帧!

部署简介

如果说目标检测落地最广的是哪个算法,yolo系列肯定有一席之地,本文为大家介绍yolov5s 4.0模型如何转换为caffe模型并推理,据我所知,华为海思NNIE只支持caffe模型的转换,所以yolov5模型要想在海思芯片上部署,转换为caffe模型是有必要的(在我的1070显卡上,yolov5s 4.0 的模型inference做到了11ms一帧!)

推理速度截图

环境配置

  • ubuntu:18.04
  • cuda:10.0
  • cudnn:7.6.5
  • caffe: 1.0
  • OpenCV:3.4.2
  • Anaconda3:5.2.0
  • 相关的安装包我已经放到百度云盘,可以从如下链接下载: https://pan.baidu.com/s/17bjiU4H5O36psGrHlFdM7A 密码: br7h
  • cuda和cudnn的安装
  • 可以参考我的TensorRT量化部署yolov5模型的文章(https://zhuanlan.zhihu.com/p/348110519
  • Anaconda安装
  • chmod +x Anaconda3-5.2.0-Linux-x86_64.sh(从上面百度云盘链接下载) .- /Anaconda3-5.2.0-Linux-x86_64.sh

  • 按ENTER,然后按q调至结尾

  • 接受协议 yes
  • 安装路径 使用默认路径
  • 执行安装
  • 在使用的用户.bashrc上添加anaconda路径,比如
  • export PATH=/home/willer/anaconda3/bin:$PATH
  • caffe安装
  • git clone https://github.com/Wulingtian/yolov5_caffe.git
  • cd yolov5_caffe
  • 命令行输入如下内容:
  • export CPLUS_INCLUDE_PATH=/home/你的用户名/anaconda3/include/python3.6m
  • make all -j8
  • make pycaffe -j8
  • vim ~/.bashrc
  • export PYTHONPATH=/home/你的用户名/yolov5_caffe/python:$PYTHONPATH
  • source ~/.bashrc

编译过程踩过的坑

libstdc++.so.6: version `GLIBCXX_3.4.21' not found 解决方案:https://blog.csdn.net/phdsky/article/details/84104769?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf#commentBox

ImportError: No module named google.protobuf.internal 解决方案:https://blog.csdn.net/quantum7/article/details/83507364

wrap_python.hpp:50:23: fatal error: pyconfig.h: No such file or dir 解决方案:https://blog.csdn.net/weixin_37251044/article/details/79158823

yolov5s模型转换onnx模型

  • pip安装onnx和onnx-simplifier
  • pip install onnx
  • pip install onnx-simplifier
  • 拉取yolov5官方代码
  • git clone https://github.com/ultralytics/yolov5.git
  • 训练自己的模型步骤参考yolov5官方介绍,训练完成后我们得到了一个模型文件
  • cd yolov5
  • python models/export.py --weights 训练得到的模型权重路径 --img-size 训练图片输入尺寸
  • python -m onnxsim onnx模型名称 yolov5s-simple.onnx 得到最终简化后的onnx模型

onnx模型转换caffe模型

  • git clone https://github.com/Wulingtian/yolov5_onnx2caffe.git
  • cd yolov5_onnx2caffe v- im convertCaffe.py
  • 设置onnx_path(上面转换得到的onnx模型),prototxt_path(caffe的prototxt保存路径),caffemodel_path(caffe的caffemodel保存路径)
  • python convertCaffe.py 得到转换好的caffe模型

caffe模型推理

  • 定位到yolov5_caffe目录下
  • cd tools
  • vim caffe_yolov5s.cpp
  • 设置如下参数:
  • INPUT_W(模型输入宽度)
  • INPUT_H(模型输入高度)
  • NUM_CLASS(模型有多少个类别,例如我训练的模型是安全帽检测,只有1类,所以设置为1,不需要加背景类)
  • NMS_THRESH(做非极大值抑制的阈值)
  • CONF_THRESH(类别置信度)
  • prototxt_path(caffe模型的prototxt路径)
  • caffemodel_path(caffe模型的caffemodel路径)
  • pic_path(预测图片的路径)
  • 定位到yolov5_caffe目录下
  • make -j8
  • cd build
  • ./tools/caffe_yolov5s 输出平均推理时间,以及保存预测图片到当前目录下,至此,部署完成!

华为海思NNIE部署拙见

如果有小伙伴,想把caffe模型部署到海思芯片,建议把yolov5的focus层替换为conv层(stride为2),upsample层替换为deconv层,如下图所示修改:

修改后的模型配置yaml文件

预测图片展示

预测效果展示


欢迎关注GiantPandaCV, 在这里你将看到独家的深度学习分享,坚持原创,每天分享我们学习到的新鲜知识。( • ̀ω•́ )✧

有对文章相关的问题,或者想要加入交流群,欢迎添加BBuf微信:

二维码

为了方便读者获取资料以及我们公众号的作者发布一些Github工程的更新,我们成立了一个QQ群,二维码如下,感兴趣可以加入。

公众号QQ交流群