44

视觉智能引擎之算法模型加速

 4 years ago
source link: https://www.infoq.cn/article/UYucRwQJCertKDf7I32t
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

将现有算法模型在不降低准确性的前提下,缩小模型尺寸以节省硬件存储成本,简化模型计算复杂度,以节省硬件计算成本。这又小又快的模型优化要求,我们一般统称为模型加速问题。对这一问题的解决,在学术界也是由来已久,有了很多非常值得借鉴的探索。本文便为大家揭开模型加速的神秘面纱。

NZNbueA.png!web

为什么做模型加速?

在正式揭开之前,首先需要了解到深度学习是怎么成功的:为什么深度神经网络在现在这个时代能成功而不是在上世纪 80,90 年代呢?相比于之前,主要的突破来自以下几个方面:一是诸如随机梯度下降之类的优化算法的改进,二是越来越大的标注数据集,三是引入能够满足模型训练和推理巨大算力需求的 GPU 这种高性能计算硬件。

MR3QZne.png!web

不同模型在 CPU 和 GPU 上的图像分类任务的表现

但是昂贵的 GPU,因为工业界的应用对成本非常敏感。因此,像 google 这类大厂一般开发自家 的 AI 芯片 (TPU) 从源头上省钱。因此,模型加速对应的第一个问题就是工业界最关心的 效率 问题: 如何 将算法能够稳定高效地部署到硬件上使之能够产生最大的价值。

进行模型加速的第二个目标就是快! 很多场景对速度的要求是非常高的: 最容易联想到的场景就是深度 神经网络图像处理技术密集使用的无人驾驶,在这种刹⻋慢个 0.5s 都会造成重大事故的场景下,对模型 的推理速度永远是要求极高的。另一个场景是在 移动设备 上在移动应用中注入 AI 能力,这是在移动互联网遇到 AI 时的必然反应。现在比较著名的应用有各家推出的人工智障语音服务助手,Siri,小爱同学等。

模型加速的第二个目标就是如何在性能受限的设备上部署能够满足需要的模型。加速后的模型的参数和计算量更小从而可以有效降低计算和存储开销,能够部署到移动端这种性能受限的设备上。关于移动端性能,这里说组数据: 移动端常⻅的 ARM 芯片的 A72 大核的算力大概是 30G FLOPs,而桌面端的 Intel 酷睿 i3 的算力是 1000G,也就说如果要把在服务器端进行推理的模型拿来放在移动端上去运行,这个加速比例至少是 30 倍以上。

如何进行模型加速?

模型加速一般是对 已经训练好 的深度模型进行精简来得到 轻量且准确率相当 的模型。这里有一个重要的 前提 : 深度神经网络并不是所有的参数都在模型中发挥作用,大部分参数其实是冗余的,只有一小部分对模型的性能产生关键作用

根据这一前提条件,目前工业界主要通过以下几种方式对模型进行加速: 包括不会改变网络机构的 权值量化,知识蒸馏,紧凑型神经网络的设计 和会改变网络的 网络剪枝 。学术界和工业界对着几个方向的研究侧重点略有差异: 前者对经凑型神经网络的设计更感兴趣,毕竟是从源头上解决问题的方法 ; 而后者对剪枝量化这种偏向工程实现的更关注,毕竟加速效果稳定可控。

这里主要简单讲下我们在生产中比较常用的几种方式:1) 权值量化 ;2) 知识蒸馏 ; 3) 网络剪枝。

1. 权值量化

量化的思路简单概括下就是 把相近的值变成一个数 。最常用的量化方式就是 INT8 量化,即把神经网络里面的原来用精度浮点数 (FP32) 存储的权值和计算中间值用整形 (INT8) 表示。计算机中的值都是用二进制存储的,FP32 是用 32bit 来存储,INT8 是用 8 个 bit 来存储。从下图可以看到,FP 类型用了 23bit 来表示小数部分,因此使用 INT8 集意味着只能用更稀疏的值和更小的数值范围 (-127~128),小数的部分和超过 128 的部分都会被省略,如果直接就这样量化,那么这部分损失的值就会极大的影响模型精度。

Y36VRjM.png!web

(来源:wiki:fp32 的存储方式)

UFRnInj.png!web (FP32 量化到 INT8 的值的变化)

那既然会影响精度,为什么我们还是要冒着⻛险去做量化呢? 这主要是两个方面的原因: 一方面是现代的计算芯片对于低 bit 的数值计算要比高 bit 的快很多,尤其是现在很多 AI 芯片都设计了专⻔的 INT8 计算核来专⻔处理 INT8 数值的计算,比如瑞星微出品的 RK3399 pro 芯片就带了一个算力达 3T FLOPs 的 NPU; 另一方面是计算机内存和 GPU 显存加载 8bit 的数值速度更快,显存消耗更小,同样的显存下就可以加载更多更大的网络进行计算。

URzma2F.png!web

(来源: https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/ :RTX2080ti 对 FP32, FP16 和 INT8 数值计算时的算力)

那么为什么 INT8 数值类型在深度神经网络中中能够应用呢? 不是有数值精度损失么? 主要原因有两个:

1、训练好的深度神经网络是出了名的对噪声和扰动鲁棒性强。

2、大部分训练好的权重都落在一个很小的区间内。

这个是有文章作为理论支撑的,Han Song 在 ICLR2016 发表的 DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN CODING 作为神经网络压缩的开山大作里面就对 AlexNet 网络的卷积层的权重分布进行了分析。下面左边这个图就是其中一层神经网络的权重,基本上分布在 -0.1 到 0.1 之间。

uaaUBb7.png!web

如果进行 4bit 量化,4bit 能够最大表示 16 个数值,因此大部分权重都有塌缩,能够保持原来的值的只有 16 个值,这 16 个值的分布如右图所示,分布的图形还是挺吻合的。那么如果进行 8bit 的量化,最大能够保持 256 个值,对原始权重的保留会更加完整,量化造成的数值损失会很小。

根据这个特性,最直观、最简单量化方式就是 乘一个系数把 FP32 类型的小数部分缩放为整数,然后用这 个 INT8 整数进行计算,计算结果再除以这个系数还原成 FP32 的值 。因为数值集中在很小的范围内,因此缩放的时候就不太需要担心会有大量的值转化后会溢出 INT8 的表示范围。因此对于实际值和量化值的映射关系,一般可以用以下公式表示:

y6viyan.png!web

其中,r 表示实际值 ;q 表示量化的比特数,比如 int8 量化就是 8;z 表示量化后的 0 点值。在实际操作 中,缩放比例、进行缩放的原始数值的最大最小值边界这些值都是需要反复调试优化的,优化较好的量 化加速效果 4 倍的情况下一般能够保持模型的精度损失不超过 0.5%。

2. 网络剪枝

另一项比较重要的神经网络的加速方法就是模型减枝,剪枝这个方式在许多经典的机器学习中也很常见,比如决策树,GBM 算法。在神经网络中,剪枝原理受启发于人脑中的突触修剪,突触修剪即轴突和树突完全衰退和死亡,是许多哺乳动物幼年期和⻘春期间发生的突触消失过程。突触修剪从出生时就开始了,一直持续到 20 多岁。

前面提到过,神经网络的参数量非常多,而其中大部分的参数在训练好之后都会集中在 0 附近,对整个网络的贡献非常小。剪枝的目的就是把这些对网络贡献很小的节点从网络中删除,从而使 网络变得稀疏,需要存储的参数量变少 。当然后遗症也是有的,一方面模型的精度会有所下降,另一方面那些冗余的参数可能是神经网络鲁棒性强的原因,因此剪完枝模型的鲁棒性也会有所损失。

经典的剪枝方法是 使用预训练模型进行裁剪,裁剪的原则就是设定一个阈值或一定的裁剪比例,然后把低于阈值的权值抛弃,再使用训练集进行微调来得到最后的剪枝模型 。这种方法操作上非常简单,裁剪的评价指标有很多种,比如权重大小,权重梯度大小,权重独立性等,但是往往要耗费非常多的时间来进行反复调参和微调训练。这种就是现在主流的结构化剪枝方法,裁剪的粒度比较粗,对神经网络整个层进行裁剪,损失的精度相对来说比较大,但是优势在于不用关心使用的模型和硬件, 通用性 很好。

z6FJn2f.png!web

(来源:HanSong 2015 NIPS: 神经元剪枝前后的结构)

后来的研究又提出了效果更好的非结构化剪枝方法,裁剪的粒度较细,可以对神经网络层的单个神经元进行剪枝,精度损失比较小,但是依赖于特定算法与硬件平台,操作起来比较复杂。另外,随着强化学习和生成对抗网络在深度学习领域的广泛应用,越来越多的剪枝算法使用强化学习和对抗生成网络产生剪枝模型。强化学习可以使用机器自动搜索剪枝模型空间,根据剪枝要求获取最佳的剪枝模型。生成对 抗网络同样可以在对抗网络的指导下,使得生成器生成满足需求的剪枝模型。

3. 知识蒸馏

在使用了上面两种加速方式还不能满足需要的话,这个时候就可以试试 15 年 Hinton 和 Google 创世 julao Jeff Dean 提出来知识蒸馏。在很多任务上, 复杂的大网络一般表现都会比简单的小网络表现要强使用轻量的紧凑小网络在模型训练的时候加入在改数据集上训练 收敛好的大网络作为而外的监督信息,使小网络能够拟合大网络,最终学习到与大网络类似的函数映射关系。那么在部署的时候我们就可以用跑的快的小网络替换大网络来执行任务

BRFfueN.png!web

知识蒸馏可以实现深度神经网络计算量最大的⻣架网络的替换,从方法论上比较通用,因此在奇点云实际图像任务中都有很强的应用价值,而从加速效果上来说,使用的小网络计算量越小,加速倍数就越多,当然一般这种情况下的模型学习效果也越差,精度损失越大。但是不同的任务对网络抽取的特征的使用方式差异还是比较大的,一般来说需要根据不同的任务调整蒸馏方法的策略。

结语

综上,奇点云 StartDT  AI  Lab 在模型加速的实践上,综合运用权值量化、知识蒸馏、紧凑型神经网络设计和网络剪枝,不断小型化、快速化、准确化业务所需各类模型,极大提升研发效率。

作者介绍

宗主、未铭、木南, From 奇点云,本文来自奇点云「StartDT  AI  Lab」专栏,「StartDT  AI  Lab 」栏目致力于展现奇点云在算法技术上的突破,分享算法研发成果在商业场景的应用能力,专注于“AI+ 大数据”领域,让数据创造价值,让商业更智能。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK