详解支持向量机


通过原理讲解,公式推导,代码实现等方式,确保学习者能够清晰理解SVM的每个核心知识点,如拉格朗日对偶问题,线性可分问题,线性不可分问题,核映射的作用及优缺点,KKT条件,SMO算法等。

        

课程难度

中级

已经参加学习的人数

50

课程主讲师

雷老师

学习次数

967

SVM原理实验
SVM的推导思路
课程大纲

第 1 集从线性分类器到最大化分类间隔

  • 1.1 内容简介
  • 1.2 支持向量机简介
  • 1.3 线性分类器
  • 1.4 分类间隔
  • 1.5 最大化分类间隔
  • 1.6 线性可分时的原问题
  • 1.7 凸优化的证明
  • 1.8 实验

第 2 集拉格朗日对偶

  • 2.1 简介
  • 2.2 拉格朗日对偶简介
  • 2.3 原问题
  • 2.4 原问题与原始问题等价性的证明
  • 2.5 对偶问题
  • 2.6 弱对偶定理
  • 2.7 弱对偶的解释
  • 2.8 强对偶与Slater条件
  • 2.9 原问题满足Slater条件的证明
  • 2.10 SVM对偶问题简介
  • 2.11 SVM对偶问题的推导
  • 2.12 对偶问题的表述
  • 2.13 支持向量的解释

第 3 集线性不可分的问题

  • 3.1 简介
  • 3.2 线性不可分的问题
  • 3.3 松弛变量与惩罚因子
  • 3.4 线性不可分的原问题
  • 3.5 满足Slater条件的证明
  • 3.6 对偶问题的推导
  • 3.7 对偶问题的表述
  • 3.8 对偶问题是凸优化问题的证明
  • 3.9 实验与解释

第 4 集核映射与核函数

  • 4.1 简介
  • 4.2 线性模型的局限性
  • 4.3 核映射
  • 4.4 核映射后的支持向量机
  • 4.5 核函数
  • 4.6 常用的核函数
  • 4.7 Mercer条件
  • 4.8 核函数的优缺点
  • 4.9 实验

第 5 集KKT条件的使用

  • 5.1 简介
  • 5.2 拉格朗日乘数法
  • 5.3 KKT条件
  • 5.4 KKT条件用于原问题
  • 5.5 三种类型的变量
  • 5.6 b值的计算

第 6 集SMO算法

  • 6.1.简介
  • 6.2 SVM对偶问题回顾
  • 6.3 求解对偶问题的困难
  • 6.4 SMO算法简介
  • 6.5 子问题的推导
  • 6.6 可行域的推导
  • 6.7 二次函数极值在区间内的极值
  • 6.8 子问题的求解公式推导(1)
  • 6.9 子问题是凸优化的证明
  • 6.10 SMO算法收敛性的证明
  • 6.11 优化变量的选择
  • 6.12 完整的SMO算法
  • 6.13 实现细节问题

第 7 集实现细节问题与总结

  • 7.1 简介
  • 7.2 多分类问题
  • 7.3 一对剩余方案
  • 7.4 一对一方案
  • 7.5 libsvm简介
  • 7.6 训练程序
  • 7.7 预测程序
  • 7.8 模型训练
  • 7.9 模型预测
  • 7.10 使用时的细节问题
  • 7.11 SVM推导思路的总结
  • 7.12 SVM优缺点总结
Q & A

授课方式是?

为了保障课程质量,提高学习效率, 课程采用录播形式。视频精心录制与剪辑制作,时间比直播更灵活,方便随时观看学习。

学习本课程,有什么前置要求么?

一定的数学基础,至少会一门编程语言。

课程周期是多久?

为了让大家在一定时间内集中精力学习,本课程有效期有6个月。

遇到问题可以咨询么?

本课程为专题课程,不提供在线答疑服务。

如何开取发票?

扫描下方二维码,联系小编即可。

如何延长有效期?

课课程到期后,电脑端登录官网可以续费,续费价格是官网原价的5%,有效期半年。


更多问题、课程咨询、资料获取,扫码找小编






 课程咨询