您可以免费观看前 5 分钟或一小节,完整观看请购买。  点此购买


本视频总时长约为55分钟

特邀王博士对当前卷积神经网络的压缩和加速相关算法原理和实现细节进行梳理解读,讲者将细致讲解基于Tucker分解的低秩估计方法,相关论文发表在2016年 ICLR会议上,文章首次将tucker分解方法引入到卷积神经网络的压缩加速中,通过实验证明了这种方法的有效性,最后讲者会总结分析一下低秩估计方法的优势和劣势。


作者简介:

王博士毕业于英国帝国理工学院,主要研究方向为深度学习模型压缩与优化,在NIPS、ICLR、IJCAI等顶级会议期刊发表了数篇相关论文,目前在某知名芯片公司担任研究科学家职位。




购买观看完整解读及视频