深度学习


本课程全面、系统、深入的讲解深度学习技术。包括深度学习算法的起源与发展历史,自动编码器,受限玻尔兹曼机,卷积神经网络,循环神经网络,生成对抗网络,深度强化学习,以及各种算法的应用。通过精心设计的实践项目,让你深刻理解算法的原理,真实学会算法的使用。

        

课程难度

中级

已经参加学习的人数

295

课程主讲师

雷老师

学习次数

44404

课程特色
内容系统全面,从入门到精通





讲授神经网络的思想起源、神经元原理、神经网络的结构和本质、正向传播算法、链式求导及反向传播算法、神经网络怎么用于实际问题等
人工神经网络1

难度值:
讲授机器学习面临的挑战、人工特征的局限性、为什么选择神经网络、深度学习的诞生和发展、典型的网络结构、深度学习在机器视觉、语音识别、自然语言处理、推荐系统中的应用
深度学习简介

难度值:
讲授玻尔兹曼分布、玻尔兹曼机的网络结构、实际应用、训练算法、深度玻尔兹曼机等
受限玻尔兹曼机

难度值:
讲授Lenet、Alexnet、VGGNet、GoogLeNet、Inception模块、小尺度卷积核、1x1卷积核、使用反卷积实现卷积层可视化等
卷积神经网络2

难度值:
讲授人脸检测算法包括CascadeCNN、DenseBox、MTCNN和人脸识别算法包括DeepFace、DeepID等
卷积神经网络4

难度值:
讲授时间序列预测问题、神经网络的记忆功能、循环层的原理、输出层的原理、深层网络、BPTT算法等
循环神经网络1

难度值:
讲授语音识别问题简介、GMM-HMM框架、RNN-CTC框架、深层网络等
循环神经网络3

难度值:
讲授数据生成问题、生成对抗网络的思想和结构、生成器、判别器、目标函数、实际应用等
生成对抗网络1

难度值:
讲授深度强化学习的基本概念、典型应用、马尔可夫决策过程、测量函数、累计回报、价值函数、贝尔曼最优性方程、时序查分算法、Q学习等
深度强化学习1

难度值:
讲授策略函数逼近、策略梯度算法的核心思想、网络结构、训练样本与目标函数的构造、策略梯度定理、网络的训练
深度强化学习3

难度值:
深度学习总结

难度值:
机器学习与数学基础知识

难度值:
讲授机器学习中的基本概念和算法、分类,以及微积分、线性代数、概率论、最优化方法等数学基础知识
人工神经网络2

难度值:
讲授神经网络的理论解释、实现细节包括输入与输出值的设定、网络规模、激活函数、损失函数、初始化、正则化、学习率的设定、实际应用等
自动编码器

难度值:
讲授自动编码的基本思想和网络结构、在特征提取中的应用、去噪自动编码器、稀疏自动编码器、收缩自动编码器、多层自动编码器
卷积神经网络1

难度值:
讲授卷积神经网络核心思想、卷积层、池化层、全连接层、网络的训练、反向传播算法、随机梯度下降法、AdaGrad算法、RMSProp算法、AdaDelta算法、Adam算法、迁移学习和fine tune等
卷积神经网络3

难度值:
讲授卷积神经网络面临的挑战包括梯度消失、退化问题,和改进方法包括卷积层、池化层的改进、激活函数、损失函数、网络结构的改 进、残差网络、全卷机网络、多尺度融合、批量归一化等
卷积神经网络5

难度值:
讲授通用目标检测算法包括R-CNN、SPP网络、Fast R-CNN、RPN网络、YOLO、SSD等,图像语义分割算法包括FCN、SegNet、编码器-解码器结 构,风格迁移算法
循环神经网络2

难度值:
讲授LSTM、GRU、双向循环神经网络、序列标注问题、CTC、seq2seq、编码器解码器结构等
循环神经网络4

难度值:
讲授自然语言处理简介、RNN解决NLP问题的一般思路、中文分词、词性标注、命名实体识别、文本分类、机器翻译等具体问题
生成对抗网络2

难度值:
讲授GAN的改进包括条件GAN、深度卷积GAN、InfoGAN、SRGAN等
深度强化学习2

难度值:
讲授深度强化学习简介、用神经网络拟合价值函数、DQN基本思想、网络结构、训练方法等
实践项目

难度值:
讲授所有实践项目,包括:用AlexNet实现MNIST数据集分类,用GoogLeNet实现图像分类,用残差网络实现图像分类,用Faster R-CNN实现目标检测,用YOLO/SSD/FPN实现目标检测,MTCNN人脸检测模型训练,Arc Loss人脸识别模型训练,用FCN实现图像分割,训练RNN中文分词模型,训练seq2seq机器翻译模型,用DQN实现游戏控制,用策略梯度网络实现运动控制,训练生成对抗网络。涵盖计算机视觉,自然语言处理,深度强化学习等重点领域


实践项目
课程大纲

第 1 集机器学习与数学基础知识

  • 1.1 课程简介
  • 1.2 本集内容简介
  • 1.3 什么是机器学习
  • 1.4 机器学习中的基本概念
  • 1.5 有监督学习的一般流程
  • 1.6 机器学习算法的分类
  • 1.7 需要哪些数学知识
  • 1.8 导数
  • 1.9 高阶导数
  • 1.10 导数与函数的性质
  • 1.11 一元函数极值判别法则
  • 1.12 一元函数泰勒展开
  • 1.13 向量及其运算
  • 1.14 向量的范数
  • 1.15 矩阵及其运算
  • 1.16 特征值与特征向量
  • 1.17 二次型
  • 1.18 张量
  • 1.19 偏导数
  • 1.20 高阶偏导数
  • 1.21 梯度
  • 1.22 雅克比矩阵
  • 1.23 Hessian矩阵
  • 1.24 多元函数极值判别法则
  • 1.25 多元函数泰勒展开
  • 1.26 几个重要的矩阵和向量求导公式
  • 1.27 随机事件与概率
  • 1.28 条件概率与贝叶斯公式
  • 1.29 随机事件的独立性
  • 1.30 随机变量
  • 1.31 数学期望
  • 1.32 方差
  • 1.33 常用的概率分布
  • 1.34 随机向量
  • 1.35 边缘概率与边缘密度
  • 1.36 随机变量的独立性
  • 1.37 协方差
  • 1.38 常用的多维分布
  • 1.39 最大似然估计
  • 1.40 最优化中的基本概念
  • 1.41 为什么要用迭代法
  • 1.42 梯度下降法
  • 1.43 数值优化算法面临的问题
  • 1.44 生成模型与判别模型
  • 1.45 准确率与回归误差
  • 1.46 精度与召回率
  • 1.47 ROC曲线
  • 1.48 交叉验证
  • 1.49 欠拟合与过拟合
  • 1.50 正则化
  • 1.51 logistic回归
  • 1.52 softmax回归
  • 1.53 主成分分析
  • 1.54 与机器学习相关的应用方向
  • 1.55 人脸检测
  • 1.56 行人检测
  • 1.57 语音识别
  • 1.58 博弈游戏
  • 1.59 机器翻译
  • 1.60 本集总结

第 2 集人工神经网络1

  • 2.1 本集简介
  • 2.2 神经网络的思想起源
  • 2.3 神经元的原理
  • 2.4 sigmoid激活函数
  • 2.5 神经网络结构
  • 2.6 正向传播算法
  • 2.7 神经网络的本质
  • 2.8 怎样用于实际问题
  • 2.9 手写数字图像分类
  • 2.10 人脸关键点定位
  • 2.11 反向传播算法简介
  • 2.12 正向传播算法回顾
  • 2.13 目标函数
  • 2.14 欧氏距离损失函数的导数
  • 2.15 链式法则
  • 2.16 几个重要的求导公式
  • 2.17 求导的整体思路
  • 2.18 计算权重和偏置的梯度
  • 2.19 计算临时变量的梯度
  • 2.20 完整的算法
  • 2.21 反向传播算法总结
  • 2.22 工程实现问题
  • 2.23 本集总结

第 3 集人工神经网络2

  • 3.1 本集内容简介
  • 3.2 实验环节
  • 3.3 理论层面的解释
  • 3.4 万能逼近定理
  • 3.5 与动物神经系统的比较
  • 3.6 实现细节问题
  • 3.7 输入值与输出值的设定
  • 3.8 网络的规模
  • 3.9 激活函数
  • 3.10 激活函数的深入解释
  • 3.11 损失函数
  • 3.12 交叉熵损失函数的深入解释
  • 3.13 参数初始化策略
  • 3.14 正则化
  • 3.15 学习率的设定
  • 3.16 挑战与改进措施
  • 3.17 梯度消失问题
  • 3.18 退化问题
  • 3.19 局部极值问题
  • 3.20 鞍点问题
  • 3.21 神经网络损失函数的曲面
  • 3.22 实际应用
  • 3.23 实践项目
  • 3.24 本集总结

第 4 集深度学习简介

  • 4.1 本集内容简介
  • 4.2 机器学习面临的挑战
  • 4.3 人工特征的局限性
  • 4.4 机器学习算法的瓶颈
  • 4.5 为什么选择了神经网络
  • 4.6 深层神经网络训练的困难
  • 4.7 深度学习的基本思路
  • 4.8 深度学习的诞生历程
  • 4.9 深度学习得以发展的因素
  • 4.10 典型的网络结构
  • 4.11 深度学习的发展现状
  • 4.12 在机器视觉中的应用
  • 4.13 在语音识别中的应用
  • 4.14 在自然语言处理中的应用
  • 4.15 在推荐系统中的应用
  • 4.16 深度强化学习
  • 4.17 本集总结

第 5 集自动编码器

  • 5.1 本集内容简介
  • 5.2 自动编码器的基本思想
  • 5.3 网络结构
  • 5.4 损失函数
  • 5.5 用于特征提取
  • 5.6 去噪自动编码器
  • 5.7 稀疏自动编码器
  • 5.8 收缩自动编码器
  • 5.9 多层自动编码器
  • 5.10 本集总结

第 6 集受限玻尔兹曼机

  • 6.1 本集内容简介
  • 6.2 玻尔兹曼分布
  • 6.3 网络结构
  • 6.4 实际例子
  • 6.5 计算隐藏单元的条件概率
  • 6.6 计算单个隐藏单元的值
  • 6.7 用于特征提取
  • 6.8 训练算法
  • 6.9 深度玻尔兹曼机
  • 6.10 本集总结

第 7 集卷积神经网络1

  • 7.1 本集简介
  • 7.2 卷积神经网络简介
  • 7.3 视觉神经系统的原理
  • 7.4 卷积神经网络的核心思想
  • 7.5 卷积运算
  • 7.6 卷积层的原理
  • 7.7 多通道卷积
  • 7.8 池化层的原理
  • 7.9 全连接层
  • 7.10 卷积神经网络的整体结构
  • 7.11 训练算法简介
  • 7.12 卷积层的反向传播
  • 7.13 池化层的反向传播
  • 7.14 全连接层的反向传播
  • 7.15 完整的反向传播实现
  • 7.16 随机梯度下降法
  • 7.17 参数初始化
  • 7.18 学习率的设定
  • 7.19 梯度下降法的改进思路
  • 7.20 动量项梯度下降法
  • 7.21 AdaGrad算法
  • 7.22 RMSProp算法
  • 7.23 AdaDelta算法
  • 7.24 Adam算法
  • 7.25 梯度下降法的改进脉络
  • 7.26 迁移学习与fine tune
  • 7.27 本集总结

第 8 集卷积神经网络2

  • 8.1 本集简介
  • 8.2 LeNet网络简介
  • 8.3 LeNet网络的结构
  • 8.4 AlexNet网络简介
  • 8.5 AlexNet网络的主要改进点
  • 8.6 VGG网络简介
  • 8.7 小尺寸卷积核
  • 8.8 VGG网络的结构
  • 8.9 GoogLetNet网络简介
  • 8.10 Inception模块
  • 8.11 1x1卷积
  • 8.12 使用1x1卷积进行通道降维的Inception模块
  • 8.13 反卷积
  • 8.14 用反卷积实现卷积层可视化
  • 8.15 卷积神经网络的数学特性
  • 8.16 根据卷积结果重构图像
  • 8.17 本集总结

第 9 集卷积神经网络3

  • 9.1 本集简介
  • 9.2 面临的挑战与改进措施
  • 9.3 梯度消失问题
  • 9.4 退化问题
  • 9.5 总体改进思路
  • 9.6 卷积层的改进1
  • 9.7 1x1卷积
  • 9.8 用矩阵乘法实现卷积
  • 9.9 池化层的改进
  • 9.10 激活函数的改进
  • 9.11 损失函数的改进
  • 9.12 网络结构的改进
  • 9.13 高速公路网络
  • 9.14 残差网络
  • 9.15 残差网络的分析
  • 9.16 全卷积网络
  • 9.17 多尺度融合
  • 9.18 批量归一化
  • 9.19 本集总结

第 10 集卷积神经网络4

  • 10.1 本集简介
  • 10.2 卷积神经网络应用简介
  • 10.3 人脸检测简介
  • 10.4 人脸二分类器
  • 10.5 滑动窗口技术
  • 10.6 分类器级联
  • 10.7 Cascade CNN简介
  • 10.8 检测算法的流程
  • 10.9 检测网络的结构
  • 10.10 校准网络的结构
  • 10.11 训练算法的流程
  • 10.12 检测结果
  • 10.13 DenseBox简介
  • 10.14 检测算法的流程
  • 10.15 网络结构
  • 10.16 网络的输出数据与损失函数
  • 10.17 MTCNN简介
  • 10.18 检测算法的流程
  • 10.19 网络结构
  • 10.20 人脸识别简介
  • 10.21 DeepFace简介
  • 10.22 网络结构
  • 10.23 DeepID简介
  • 10.24 网络结构
  • 10.25 DeepID2简介
  • 10.26 多任务损失函数
  • 10.27 其他人脸识别算法

第 11 集卷积神经网络5

  • 11.1 通用目标检测简介
  • 11.2 R-CNN简介
  • 11.3 检测算法的流程
  • 11.4 SPP网络简介
  • 11.5 要解决的核心问题
  • 11.6 卷积神经网络为什么只能接受固定尺寸的输入
  • 11.7 SPP层的原理
  • 11.8 检测算法的流程
  • 11.9 SPP层不可反向传播的问题
  • 11.10 Fast R-CNN简介
  • 11.11 网络结构
  • 11.12 损失函数与检测算法
  • 11.13 Faster R-CNN简介
  • 11.14 网络结构
  • 11.15 RPN的原理
  • 11.16 RPN的网络结构
  • 11.17 anchor机制
  • 11.18 损失函数与anchor标注
  • 11.19 网络的训练
  • 11.20 YOLO简介
  • 11.21 整体原理
  • 11.22 网络的预测数据
  • 11.23 网络结构
  • 11.24 SSD简介
  • 11.25 网络结构
  • 11.26 网格划分与默认矩形框
  • 11.27 损失函数
  • 11.28 图像语义分割简介
  • 11.29 FCN简介
  • 11.30 网络结构
  • 11.31 SegNet简介
  • 11.32 编码器-解码器结构
  • 11.33 风格迁移简介
  • 11.34 风格特征与内容特征
  • 11.35 目标函数
  • 11.36 优化流程
  • 11.37 卷积神经网络应用总结

第 12 集循环神经网络1

  • 12.1 本集内容简介
  • 12.2 时间序列预测问题
  • 12.3 神经网络具有记忆功能
  • 12.4 循环层的原理
  • 12.5 输出层的原理
  • 12.6 一个简单的循环神经网络
  • 12.7 将数据按照时间线展开
  • 12.8 深层网络
  • 12.9 BPTT算法简介
  • 12.10 损失函数
  • 12.11 输出层求导
  • 12.12 循环层求导
  • 12.13 BPTT算法的流程
  • 12.14 本集总结

第 13 集循环神经网络2

  • 13.1 本集内容简介
  • 13.2 梯度消失问题
  • 13.3 解决思路
  • 13.4 LSTM
  • 13.5 LSTM总结
  • 13.6 GRU
  • 13.7 双向循环神经网络简介
  • 13.8 预测算法
  • 13.9 双向网络的简单例子
  • 13.10 序列标注问题
  • 13.11 序列标注问题面临的问题
  • 13.12 序列标注问题分类
  • 13.13 CTC简介
  • 13.14 CTC的原理
  • 13.15 CTC的训练算法
  • 13.16 seq2seq简介
  • 13.17 编码器-解码器结构
  • 13.18 seq2seq的预测算法
  • 13.19 seq2seq的训练算法
  • 13.20 seq2seq的用法
  • 13.21 本集总结

第 14 集循环神经网络3

  • 14.1 本集内容简介
  • 14.2 语音识别问题简介
  • 14.3 问题的抽象
  • 14.4 实际例子
  • 14.5 GMM-HMM框架
  • 14.6 神经网络早期在语音识别中的应用
  • 14.7 RNN-CTC框架简介
  • 14.8 RNN-CTC框架的原理
  • 14.9 深层网络
  • 14.10 本集总结

第 15 集循环神经网络4

  • 15.1 本集内容简介
  • 15.2 自然语言处理简介
  • 15.3 RNN解决NLP问题的一般思路
  • 15.4 中文分词简介
  • 15.5 用RNN解决分词问题
  • 15.6 词性标注
  • 15.7 命名实体识别
  • 15.8 文本分类
  • 15.9 机器翻译简介
  • 15.10 用seq2seq解决机器翻译问题
  • 15.11 本集总结

第 16 集生成对抗网络1

  • 16.1 本集内容简介
  • 16.2 数据生成问题
  • 16.3 均匀分布随机数生成
  • 16.4 正态分布随机数生成
  • 16.5 显式建模与隐式建模
  • 16.6 实际例子
  • 16.7 生成对抗网络的思想
  • 16.8 生成对抗网络的结构
  • 16.9 生成器
  • 16.10 判别器
  • 16.11 优化目标函数
  • 16.12 目标函数的解释
  • 16.13 训练算法
  • 16.14 实际使用
  • 16.15 理论分析
  • 16.16 本集总结

第 17 集生成对抗网络2

  • 17.1 本集内容简介
  • 17.2 GAN改进与应用简介
  • 17.3 条件GAN的思想
  • 17.4 条件GAN的网络结构
  • 17.5 条件GAN的优化目标
  • 17.6 深度卷积GAN
  • 17.7 InfoGAN的思想
  • 17.8 InfoGAN的结构
  • 17.9 互信息
  • 17.10 InfoGAN的优化目标
  • 17.11 图像超分辨简介
  • 17.12 SRGAN的基本思想
  • 17.13 SRGAN的网络结构
  • 17.14 SRGAN的优化目标
  • 17.15 由文字生成图像
  • 17.16 网络结构
  • 17.17 本集总结

第 18 集深度强化学习1

  • 18.1 本集内容简介
  • 18.2 强化学习的基本概念
  • 18.3 典型应用实例
  • 18.4 问题的定义
  • 18.5 马尔可夫决策过程
  • 18.6 实际例子
  • 18.7 策略函数
  • 18.8 实际例子
  • 18.9 累计回报
  • 18.10 状态价值函数
  • 18.11 动作价值函数
  • 18.12 按照时间线展开
  • 18.13 最优策略
  • 18.14 主要的求解算法
  • 18.15 贝尔曼最优性方程
  • 18.16 时序差分算法
  • 18.17 Q学习算法
  • 18.18 本集总结

第 19 集深度强化学习2

  • 19.1 本集内容简介
  • 19.2 深度强化学习简介
  • 19.3 价值函数逼近
  • 19.4 用神经网络拟合价值函数
  • 19.5 深度强化学习的早期尝试
  • 19.6 DQN的基本思想
  • 19.7 DQN的网络结构
  • 19.8 目标函数
  • 19.9 训练样本
  • 19.10 DQN的训练算法
  • 19.11 本集总结

第 20 集深度强化学习3

  • 20.1 本集内容简介
  • 20.2 DQN的局限性
  • 20.3 策略梯度算法的核心思想
  • 20.4 训练样本的构造
  • 20.5 目标函数的构造
  • 20.6 策略梯度的计算
  • 20.7 策略梯度定理
  • 20.8 实现细节
  • 20.9 本集总结

第 21 集实践项目

  • 21.1 用AlexNet实现MNIST数据集分类
  • 21.2 用GoogLeNet实现图像分类
  • 21.3 用残差网络实现图像分类
  • 21.4 用Faster R-CNN实现目标检测
  • 21.5 用YOLO/SSD/FPN实现目标检测
  • 21.6 MTCNN人脸检测模型训练
  • 21.7 Arc Loss人脸识别模型训练
  • 21.8 用FCN实现图像分割
  • 21.9 训练RNN中文分词模型
  • 21.10 训练seq2seq机器翻译模型
  • 21.11 用DQN实现游戏控制
  • 21.12 用策略梯度网络实现运动控制
  • 21.13 训练生成对抗网络

第 22 集深度学习总结

    导师团队

    雷老师

    硕士,毕业于清华大学计算机系。人工智能和机器学习领域资深专家。前知名智能硬件与智能家居公司CTO,前百度高级工程师、项目经理,有超过12年的机器学习、机器视觉、自然语言处理学术研究和产品研发经验。同时具备深厚的理论功底和丰富的工业经验。


    Lantern

    硕士,毕业于清华大学计算机系,主要负责实验平台,实践项目的技术支持,在人工智能算法、工程化方面有深厚的造诣与丰富的实际经验。


    Q & A

    授课方式是?

    为了保障课程质量,提高学习效率, 课程采用录播形式。视频精心录制与剪辑制作,时间比直播更灵活,方便随时观看学习。

    学习《深度学习》,有什么要求么?

    虽然在课程中会讲解深度学习中所用到的数学知识,但没有数学基础的同学,需要先修过3门基础课程:线性代数、概率论以及高等数学,同时具备基本机器学习的知识,才能更好地理解课程内容,跟上课程进度。

    课程周期是多久?

    为了让大家在一定时间内集中精力学习,《深度学习》课程有效期有6个月时间,对于单独学习这门课程来说,时间是充裕的。

    遇到问题可以咨询么?

    学习过程中遇到的任何问题都可以提出来,会有专业导师进行6个月的在线答疑,解决你学习中遇到的任何问题与困难。

    如何开取发票?

    购买成功后,扫描下方二维码,将具体开票信息发送给小编即可。

    如何延长有效期?

    课程到期后,电脑端登录官网可以续费,续费价格是官网原价的5%,有效期半年(不包括在线答疑)。注意:到期前两周内课程详情页面会出现【续费】按钮,点击按钮进行续费即可。


    更多问题、课程咨询、资料获取,扫码找小编






     课程咨询