MNNKit是基于端上推理引擎MNN提供的系列应用层解决方案,它是由MNN团队在阿里系应用大规模业务实践后的成熟方案,MNNKit主要面向Android/iOS移动应用开发者,使其能快速、方便地将通用场景的AI能力直接部署到移动应用中,从而基于它开发各种各样的业务能力和玩法。
git clone https://github.com/alibaba/MNNKit.git
cd MNNKitDemo/iOS
pod update
open MNNKitDemo.xcworkspace
然后安装运行到真机上(Demo中视频检测依赖摄像头输入)
MNNKit SDK组织结构如下图:
从底向上分为三层:
业务Kit层SDK相互独立,向下关联依赖无需显式指定,只需根据自身需求选择集成的SDK和版本即可。
Kit SDK | Android | iOS | License |
---|---|---|---|
FaceDetection | 0.0.5 | 0.0.4 | 《MNN Kit Terms of Service》 |
HandGestureDetection | 0.0.6 | 0.0.4 | 《MNN Kit Terms of Service》 |
PortraitSegmentation | 0.0.6 | 0.0.4 | 《MNN Kit Terms of Service》 |
工程build.gradle配置maven仓库:
allprojects {
repositories {
google()
jcenter()
// 国内访问推荐使用阿里云镜像加速
maven { url "https://maven.aliyun.com/nexus/content/groups/public" }
// Maven Central
// mavenCentral()
// mavenLocal()
}
}
app的build.gradle添加依赖:
dependencies {
implementation 'com.alibaba.android.mnnkit:facedetection:0.0.5'
implementation 'com.alibaba.android.mnnkit:handgesturedetection:0.0.6'
implementation 'com.alibaba.android.mnnkit:portraitsegmentation:0.0.6'
}
-dontwarn com.alibaba.android.mnnkit.**
-keep class com.alibaba.android.mnnkit.**{*;}
source 'https://github.com/CocoaPods/Specs.git'
platform :ios
target 'MNNKitDemo' do
platform :ios, '8.0'
# 人脸检测
pod 'MNNFaceDetection', '~> 0.0.4'
# 手势识别
pod 'MNNHandGestureDetection', '~> 0.0.4'
# 人像分割
pod 'MNNPortraitSegmentation', '~> 0.0.4'
end
目前MNNKit SDK均不支持bitcode,应用集成时候需关闭bitcode选项。
Kit的基本API只有三个,创建实例、推理、释放实例。使用流程也是按照这个顺序,如下图所示,其中推理时可输入视频、图片或其他格式的数据。
默认情况下,MNNKit会收集SDK运行时的性能、稳定性等数据,帮助我们统计和分析问题,以在后续迭代中针对性地进行优化和改进。SDK不会收集其他任何无关的用户信息,相关协议请参考license。用户可以显式的调用API关闭该功能(不推荐):
MNNMonitor.java
/**
* enable/disable collection of statistical information. Enable by default.
* @param monitorEnable true or false
*/
public static void setMonitorEnable(boolean monitorEnable)
MNNMonitor.h
/// enable/disable collection of statistical information. Enable by default.
/// @param enable
+ (void)setMonitorEnable:(BOOL)enable;
MNNKit API中包含了inAngle和outAngle两个参数值,他们是用来做什么的?理解这个问题之前,我们不妨先了解下SDK处理的一般过程。
如下是iOS和Android设备后置摄像头正向拍摄的场景,端上整个处理过程:
这部分是从Camera获取数据,作为SDK的输入;同时在设备前端,要正确的预览给用户。
MNNKit SDK内部实现封装了算法的深度学习模型,运行在MNN引擎上,因此人脸检测也并非传统的图像处理,它有着机器学习所有的特性。算法在模型训练阶段使用的是正向的人脸数据集,因而这个模型只认识"正向"的人脸,如果输入是一张方向不对的人脸,可能就不会有检测结果,我们称之为"内容方向敏感"。MNNKit中人脸检测、手势识别、人像分割都属于"内容方向敏感"的类型。
SDK参数中的inAngle参数就是用来控制将原始输入旋转到"内容正向"的角度,outAngle就是用来变换关键点坐标到屏幕渲染坐标系方向的角度!
从上图中可以看出,iOS在后置正向的情况下的输入角度为0,输出角度为0;而安卓输入角度为90,输出角度为0。
SDK检测的结果是图像的特征描述,最简单的描述就是关键点的坐标,这些坐标都是在图像坐标系下产生的,也就是在最终输入到引擎的图片左上角为原点的坐标系下。比如输入的图像是1280*720,那么检测结果也是在这个坐标系下产生。
工程应用中,最后的结果关键点要显示在用户屏幕上,前端会使用一个用来渲染的"画布",它可以是一个UI上用来显示的视图或其他组件,画布的尺寸由应用根据视觉设计自己定义。画布的坐标系我们统称为渲染坐标系,这一步要做的就是将关键点坐标从头像坐标系转换到渲染坐标系。
在SDK检测的最后一步,我们已经将关键点变换到和渲染坐标系相同的方向,因为两个坐标系的大小不一样,接下来只需要等比例映射坐标就行了。映射完后直接渲染到画布上,就完成了整个过程。
上述我们以iOS和Android设备后置摄像头正向拍摄为例阐述,比较简单,实际的工程接入中,摄像头的正向角度会产生输出图像的角度,设备旋转会造成输出图片非内容正向,自动旋转开启会引起渲染坐标系的变化,等等,这些都是SDK之外工程上需要解决的问题。
MNNKit Demo中涵盖了工程实践中所有问题的综合解法,如输入角度、摄像头预览、结果渲染、自动旋转等等,是工程接入的最佳实践参考。如果不熟悉该如何处理,请阅读Demo中的代码示例,相信所有的问题都可以迎刃而解。
当您在软件中使用MNNKit相关SDK时,默认您已经阅读并同意协议《MNN Kit Terms of Service》