您可以免费观看前 5 分钟或一小节,完整观看请购买。  点此购买


本视频总时长约为30分钟

特邀王博士对当前卷积神经网络的压缩和加速相关算法原理和实现细节进行梳理解读。无论是网络裁枝,还是低秩估计,我们从矩阵乘法入手,想方设法将参与 计算的矩阵变小,直观地减少参数量和计算量。如果我们可以用有限的几个参数来估计连续的实数域,那么就不用每个位置都存参数 了,我们只需要存储有限的几个参数,和每个位置对那几个参数的索引不就行了么?索引可 以用整数来表示,如果我们存储的参数为 256 个,那么只需要 8-bit 整数就可以索引,相比 于所有位置都存 32bit 的浮点数,模型的存储量可以下降到原来的 1/4。讲者结合ICLR 2016会议中提出的三种方法:裁枝+量化+哈夫曼编码深入浅出,理论结合实践,通过论文解读和具体实现带领大家从算法关键步骤原理一步步过渡到工程细节,有理有据帮助你快速掌握核心知识。


作者简介:

王博士毕业于英国帝国理工学院,主要研究方向为深度学习模型压缩与优化,在NIPS、ICLR、IJCAI等顶级会议期刊发表了数篇相关论文,目前在某知名芯片公司担任研究科学家职位。




购买观看完整解读及视频