在移动设备上本地运行深度学习模型,已经成了一股潮流,大公司纷纷推出相关框架,想框住一批移动开发者。
今天,百度在GitHub上公开了一个移动端深度学习框架mobile-deep-learning(MDL),可以在移动设备上简单快速部署卷积神经网络(CNN)。
MDL的特点是体积小、速度快,还有iOS GPU版本。它的体积是armv7 340k+,,用iOS GPU运行MobileNet需要40毫秒,运行squeeznet需要30毫秒。
地址:https://github.com/baidu/mobile-deep-learning
用MDL能实现什么功能呢?主要是图像识别和目标检测,比如说手机百度的拍照搜图功能。
据百度介绍,手机百度App里现在用的就是这个框架。打开手机百度,点击拍照搜索按钮,接下来识别图像就靠MDL了。

为了让用户直观地看到框架效果,百度还编译打包了iOS和Android的安装文件,可以扫码安装:

△ 安装iOS-MobileNet

△ 安装Android-GoogLeNet
MDL是用来在移动端部署CNN的,并不支持神经网络的训练。现在,这个框架支持将Caffe模型转换成MDL模型。
百度图像搜索客户端工程师李永会在InfoQ撰文介绍MDL说,这个框架包括模型转换模块(MDL Converter)、模型加载模块(Loader)、网络管理模块(Net)、矩阵运算模块(Gemmers)及供 Android 端调用的 JNI 接口层(JNI Interfaces),结构如下:

其中负责将Caffe模型转化成MDL模型的,就是模型转换模块。
根据百度在GitHub上的介绍,MDL具有如下特性:
一键部署,脚本参数就可以切换ios或者android
支持iOS gpu运行MobileNet、squeezenet模型
已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型
体积极小,无任何第三方依赖。纯手工打造。
提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下
与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化
NEON使用涵盖了卷积、归一化、池化所有方面的操作
汇编优化,针对寄存器汇编操作具体优化
loop unrolling循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作
将大量繁重的计算任务前置到overhead过程
想要更深入地了解MDL,还是得去GitHub亲自看代码:https://github.com/baidu/mobile-deep-learning
