> 原文博客:[Doi技术团队](http://blog.doiduoyi.com)<br/>
> 链接地址:[https://blog.doiduoyi.com/authors/1584446358138](https://blog.doiduoyi.com/authors/1584446358138)<br/>
> 初心:记录优秀的Doi技术团队学习经历<br/>
>本文链接:[基于Paddle Lite在Android手机上实现图像分类](https://blog.doiduoyi.com/articles/1596345808188.html)<br/>
# 前言
Paddle Lite是飞桨基于Paddle Mobile全新升级推出的端侧推理引擎,在多硬件、多平台以及硬件混合调度的支持上更加完备,为包括手机在内的端侧场景的AI应用提供高效轻量的推理能力,有效解决手机算力和内存限制等问题,致力于推动AI应用更广泛的落地。
# 模型转换
Paddle Lite使用的是PaddlePaddle保存的预测模型,如果不了解PaddlePaddle的模型保存,可以参考[《模型的保存与使用》](https://blog.doiduoyi.com/articles/1584974792165.html)这篇文章。下面简单介绍一下保存模型的方式。通过使用`fluid.io.save_inference_model()`接口可以保存预测模型,预测模型值保存推所需的网络,不会保存损失函数等。当使用`model_filename`和`params_filename`指定参数之后,保存的预测模型只有两个文件,这种称为合并模型,否则会以网络结构命名将大量的参数文件保存在`dirname`指定的路径下,这种叫做非合并模型。例如通过以下的代码片段保存的预测模型为`model`和`params`,这两个模型将会用于下一步的模型转换。
```python
import paddle.fluid as fluid
# 定义网络
image = fluid.layers.data(name='img', shape=[1, 28, 28], dtype='float32')
label = fluid.layers.data(name='label', shape=[1], dtype='int64')
feeder = fluid.DataFeeder(feed_list=[image, label], place=fluid.CPUPlace())
predict = fluid.layers.fc(input=image, size=10, act='softmax')
loss = fluid.layers.cross_entropy(input=predict, label=label)
avg_loss = fluid.layers.mean(loss)
exe = fluid.Executor(fluid.CPUPlace())
exe.run(fluid.default_startup_program())
# 数据输入及训练过程
# 保存预测模型
fluid.io.save_inference_model(dirname="mobilenet_v2/",
feeded_var_names=[image.name],
target_vars=[predict],
executor=exe,
model_filename="model",
params_filename="params")
```
## opt转换
使用`fluid.io.save_inference_model()`接口可以保存预测模型并不能直接使用,还需要通过opt工具转换,这个工具可以下载Paddle Lite预编译的,或者通过源码编译,opt下载地址:[https://paddle-lite.readthedocs.io/zh/latest/user_guides/release_lib.html#opt](https://paddle-lite.readthedocs.io/zh/latest/user_guides/release_lib.html#opt),关于如何编译opt请看下一部分。
通过以下命令即即可把预测模型转变成Paddle Lite使用的模型,其中输出的`mobilenet_v2.nb`就是所需的模型文件,因为转换之后,模型可以在`valid_targets`指定的环境上加速预测,所以变得非常牛B,因此后缀名为`nb`(开个玩笑)。
```
./opt \
--model_file=mobilenet_v2/model \
--param_file=mobilenet_v2/params \
--optimize_out_type=naive_buffer \
--optimize_out=mobilenet_v2 \
--valid_targets=arm opencl \
--record_tailoring_info=false
```
上面参数的说明如下表所示,其中需要关注的是`valid_targets`参数,要看模型用着上面设备上,通过指定backend可以使用更好的加速方式。有些读取可能会出现这样的疑问,上面使用的是合并的模型,没合并的模型怎样用呢,其实很简单,只有设置`--model_dir`,忽略`--model_file`和`--param_file`就可以了。
| 参数 | 说明 |
|--|:--|
| --model_dir | 待优化的PaddlePaddle模型(非combined形式)的路径 |
| --model_file | 待优化的PaddlePaddle模型(combined形式)的网络结构文件路径。 |
| --param_file | 待优化的PaddlePaddle模型(combined形式)的权重文件路径。 |
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf。 |
| --optimize_out | 优化模型的输出路径。 |
| --valid_targets | 指定模型可执行的backend,默认为arm。目前可支持x86、arm、opencl、npu、xpu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为npu, arm。 |
| --record_tailoring_info | 当使用 根据模型裁剪库文件 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false。 |
## 源码编译opt
上面所使用的opt工具是通过下载得到的,如果读者喜欢折腾,可以尝试自行源码编译编译,首先是环境搭建,环境搭建有两种方式,第一种是使用Docker,第二种是本地搭建环境。
1. 使用Docker容器,只要3条命令即可搭建环境,这个也是最简单的方式。
```bash
# 拉取Paddle Lite镜像
docker pull paddlepaddle/paddle-lite:2.0.0_beta
# 克隆源码
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
# 进行Paddle Lite容器
docker run -it \
--name paddlelite_docker \
-v $PWD/Paddle-Lite:/Paddle-Lite \
--net=host \
paddlepaddle/paddle-lite /bin/bash
```
2. 在Ubuntu本地搭建Paddle Lite编译环境,通过执行以下命令在Ubuntu本地完成环境搭建。
```bash
# 1. 安装基本环境
apt update
apt-get install -y --no-install-recommends \
gcc g++ git make wget python unzip adb curl
# 2. 安装Java环境
apt-get install -y default-jdk
# 3. 安装Cmake
wget -c https://mms-res.cdn.bcebos.com/cmake-3.10.3-Linux-x86_64.tar.gz && \
tar xzf cmake-3.10.3-Linux-x86_64.tar.gz && \
mv cmake-3.10.3-Linux-x86_64 /opt/cmake-3.10 && \
ln -s /opt/cmake-3.10/bin/cmake /usr/bin/cmake && \
ln -s /opt/cmake-3.10/bin/ccmake /usr/bin/ccmake
# 4. 安装NDK
cd /tmp && curl -O https://dl.google.com/android/repository/android-ndk-r17c-linux-x86_64.zip
cd /opt && unzip /tmp/android-ndk-r17c-linux-x86_64.zip
# 5. 添加环境变量
echo "export NDK_ROOT=/opt/android-ndk-r17c" >> ~/.bashrc
source ~/.bashrc
```
在以上的环境中编译opt工具,执行以下命令即可完成编译,编译完成之后,在`build.opt/lite/api/`下的可执行文件`opt`。
```
cd Paddle-Lite && ./lite/tools/build.sh build_optimize_tool
```
# Paddle Lite的Android预测库
Paddle Lite的Android预测库也可以通过下载预编译的,或者通过源码编译。下载地址为:,注意本教程使用的是静态库的方式,而且使用的是图像识别的,所以需要选择的下载库为with_extra=ON,arm_stl=c++_static,with_cv=ON的armv7和armv8库。下载解压之后得到的目录结构如下,其中我们所需的在`java`的jar和so动态库,注意32位的so动态库放在Android的`armeabi-v7a`目录,64位的so动态库放在Android的`arm64-v8a`目录,jar包只取一个就好。
```
inference_lite_lib.android.armv8/
|-- cxx C++ 预测库和头文件
| |-- include C++ 头文件
| | |-- paddle_api.h
| | |-- paddle_image_preprocess.h
| | |-- paddle_lite_factory_helper.h
| | |-- paddle_place.h
| | |-- paddle_use_kernels.h
| | |-- paddle_use_ops.h
| | `-- paddle_use_passes.h
| `-- lib C++预测库
| |-- libpaddle_api_light_bundled.a C++静态库
| `-- libpaddle_light_api_shared.so C++动态库
|-- java Java预测库
| |-- jar
| | `-- PaddlePredictor.jar
| |-- so
| | `-
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
在Android使用深度学习模型实现图像识别,本项目提供了多种使用方式,使用到的框架如下:Tensorflow Lite、Paddle Lite、MNN、TNN.zip项目工程资源经过严格测试可直接运行成功且功能正常的情况才上传,可轻松复刻,拿到资料包后可轻松复现出一样的项目,本人系统开发经验充足(全领域),有任何使用问题欢迎随时与我联系,我会及时为您解惑,提供帮助。 【资源内容】:包含完整源码+工程文件+说明(如有)等。答辩评审平均分达到96分,放心下载使用!可轻松复现,设计报告也可借鉴此项目,该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的。 【提供帮助】:有任何使用问题欢迎随时与我联系,我会及时解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 下载后请首先打开README文件(如有),项目工程可直接复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用。
资源推荐
资源详情
资源评论
收起资源包目录
在Android使用深度学习模型实现图像识别(毕设&课设&实训&大作业&竞赛&项目) (242个子文件)
gradlew.bat 2KB
gradlew.bat 2KB
gradlew.bat 2KB
gradlew.bat 2KB
imageclassify_jni.cc 4KB
mnnnetnative.cpp 18KB
mnnportraitnative.cpp 2KB
.gitignore 208B
.gitignore 208B
.gitignore 208B
.gitignore 208B
.gitignore 6B
.gitignore 6B
.gitignore 6B
.gitignore 6B
build.gradle 1KB
build.gradle 1KB
build.gradle 1KB
build.gradle 975B
build.gradle 530B
build.gradle 530B
build.gradle 530B
build.gradle 530B
settings.gradle 60B
settings.gradle 56B
settings.gradle 53B
settings.gradle 53B
gradlew 5KB
gradlew 5KB
gradlew 5KB
gradlew 5KB
Matrix.h 55KB
Rect.h 18KB
HalideRuntime.h 11KB
macro.h 8KB
instance.h 5KB
common.h 4KB
status.h 4KB
blob_converter.h 3KB
blob.h 2KB
MNNDefine.h 2KB
tnn.h 2KB
MNNForwardType.h 2KB
imageclassify_jni.h 2KB
dims_vector_utils.h 2KB
cpu_utils.h 1KB
data_type_utils.h 1KB
bfp16_utils.h 1KB
half_utils.h 1KB
version.h 946B
MNNSharedContext.h 701B
Interpreter.hpp 8KB
Tensor.hpp 8KB
ImageProcess.hpp 4KB
AutoTime.hpp 1KB
ErrorCode.hpp 619B
gradle-wrapper.jar 53KB
gradle-wrapper.jar 53KB
gradle-wrapper.jar 53KB
gradle-wrapper.jar 53KB
PaddlePredictor.jar 9KB
CameraActivity.java 16KB
CameraActivity.java 16KB
CameraActivity.java 16KB
CameraActivity.java 15KB
Utils.java 7KB
MainActivity.java 6KB
Utils.java 6KB
Utils.java 6KB
Utils.java 6KB
MNNNetInstance.java 6KB
MainActivity.java 6KB
MainActivity.java 6KB
MainActivity.java 6KB
PaddleLiteClassification.java 5KB
TFLiteClassificationUtil.java 5KB
MNNClassification.java 4KB
MNNImageProcess.java 3KB
MNNNetNative.java 3KB
AutoFitTextureView.java 2KB
AutoFitTextureView.java 2KB
AutoFitTextureView.java 2KB
AutoFitTextureView.java 2KB
ImageClassifyUtil.java 2KB
ExampleInstrumentedTest.java 796B
ExampleInstrumentedTest.java 788B
ExampleInstrumentedTest.java 782B
ExampleInstrumentedTest.java 782B
MNNForwardType.java 410B
ExampleUnitTest.java 402B
ExampleUnitTest.java 398B
ExampleUnitTest.java 395B
ExampleUnitTest.java 395B
MNNPortraitNative.java 183B
LICENSE 11KB
README.md 25KB
README.md 18KB
README.md 18KB
README.md 16KB
README.md 540B
共 242 条
- 1
- 2
- 3
资源评论
热爱技术。
- 粉丝: 2349
- 资源: 7862
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功