您可以免费观看前 5 分钟或一小节,完整观看请购买。  点此购买


本视频总时长约为26分钟

特邀王博士对当前卷积神经网络的压缩和加速相关算法原理和实现细节进行梳理解读,在模型的压缩和加速方法中,可以分为两类:硬件加速和软件加速。王博士重点介绍基于算法优化的软件加速,大体上分成两大类:压缩结构,和压缩参数。压缩结构是直接设计结构小,参数少的网络,比如MobileNet,ShuffleNet等,这些方法直接构造了一个比常用网络更小的结构,并从头训练。而压缩参数则是在已训练好的模型基础上,对参数进行筛选、转换或者近似估计,以得到更少的参数和更小的结构,比如我们后面要介绍的网络裁枝、低秩估计等。网络剪枝技术可以按不同的精度做裁枝操作,粗精度的裁枝实现是最简单的,而细精度的裁枝则需要平台的额外支持,因为细精度的裁枝通常需要使用稀疏矩阵乘法来起到模型压缩和加速的效果。网络裁枝的最大优势在于其压缩效果是可控的,裁掉一般的参数,得到模型的大小就是原来的一半,网络剪枝分为 filter-level, channel-level和稀疏化三大类。卷积神经网络的压缩和加速:剪枝技术原理介绍,讲者深入浅出,理论结合实践,通过论文解读和具体实现带领大家从算法关键步骤原理一步步过渡到工程细节,有理有据帮助你快速掌握核心知识。


作者简介:

王博士毕业于英国帝国理工学院,主要研究方向为深度学习模型压缩与优化,在NIPS、ICLR、IJCAI等顶级会议期刊发表了数篇相关论文,目前在某知名芯片公司担任研究科学家职位。




购买观看完整解读及视频