You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

372 lines
12 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 7.支持向量机——升维打击
Support vector machines
### 知识树
Knowledge tree
![1619229799424](assets/1619229799424.png)
> 支持向量机也是李航的统计学习中效果最好的模型,面试中也是问的最多的
>
> 苹果表示重点
>
> 间隔使用了几何间隔保证w b的度量感知机则是函数间隔
>
> 间隔最大化思想:则是支持向量机的独有,这使得它找到最优超平面
>
> 核函数:面试当中可能会问到是否能写出其中的一个核函数
### 红豆绿豆的前世今生
前面章节讲到划分超平面,来区分红豆和绿豆
![1619230292531](assets/1619230292531.png)
> 从上面可以看到,能找到很多的超平面,黄色的线,那哪条黄色的线才是最好的呢?当然是对角的黄色线,因为这条可以让红豆绿豆区分的最开,也就是线和豆的距离最远,即使区分新的豆(预测集),也能最好的区分开,因为可能豆有接近的情况。
**如何找到最优的超平面**
![1619230622465](assets/1619230622465.png)
> 从上图可知超平面A是最优的。因为它与两个类的距离都足够大。
结论:我们试图找到一个超平面,这个超平面可以使得与它最近的样本点的距离必须大于其他所有超平面划分时与最近的样本点的距离。
在SVM中这叫间隔最大化。
> 即该超平面与最近的样本点的距离,都大于所有超平面离最近样本点的距离
此时我们可以说,我们找到了最优的超平面,但随着时代的变迁,红豆绿豆也发生了变化,比如下图的
![1619230914515](assets/1619230914515.png)
> 它不再是左右分开,而是混在一起
![1619230958940](assets/1619230958940.png)
> 单纯用线性无法解决,如果是非线性呢?
![1619230986759](assets/1619230986759.png)
> 我们需要找到这么个圈的超平面,那么圈能是超平面呢?
![1619231022688](assets/1619231022688.png)
> 如上图,原本二维空间的样本,因为线性不可分, 即需要投射到三维空间,那么在三维空间就能用超平面切分。
>
> 再将三维空间的超平面投射到二维空间,那么超平面在二维空间上就是曲线的,即非线性。
那么接下来,我们要考虑的是,怎么进行低维和高维之间的转换。
### 升维可分问题
1. 当有人拿着棍子指着你时,你只能看到棍子的横截面,是一个点,它是一维的。我们无法将两个点区分开来。因为她们重叠了。
![1619232957172](assets/1619232957172.png)
> 右边红色线表示看的方向
2. 当有人拿着棍子指着其它地方,我们能看到整个棍子,这时候是二维的。我们可以一把刀劈开,把红豆和绿豆区分开。所以,红豆和绿豆虽然在一维的时候不能分开,但在二维时线性可分了。
![1619234003387](assets/1619234003387.png)
3. 也可能二维不可分, 如下图
![1619234073290](assets/1619234073290.png)
4. 这时候我们可以把棍子看作三维中的棍子,有体积的。如果把棍子立在地上,很有可能红豆靠南侧,绿豆靠北侧,我们像劈柴一样从上至下即可劈开(分开),也一样是线性可分。
5. 如果三维还不能线性可分,那就升到思维
**总会从某一个维度开始,它变成线性可分了,即只要不断的增加维度(特征)总能区分开来**
同时,我们发现高维中的超平面,映射到低维空间中时,可能会变成曲线或其它的划分形式。
这也就是为什么在SVM中我们同样使用超平面来划分SVM可以划分非线性的数据集。
它本质上仍然是线性超平面,不过是高维中的线性超平面。
**那么升维一定会线性可分吗?**
**会不会升到无穷维了仍然线性不可分?**
答案是不会的首先要明白我们的数据集一定是基于真实的某种分布分为A类的样本和B类的一定在本质上有区别。只要有区别就一定可以区分开来一定在某个高维度上线性可分。
**另外总能上升到有个维度空间中线性可分无限上升的同时有没有可能在N+1维度又不可分了**
不会随着维度的上升我们获得的信息越来越多。当第N维的数据已经足够划分时更多的信息量并不会出现又不可分的情况。
### 总结
Summarization
1. SVM使用间隔最大化思想构造最优超平面。
2. 构造出来的超平面使得其与最近的点的距离最大。
3. SVM也可划分非线性数据集。
4. 它通过高维中的线性超平面再低维中的投影来完成非线性的划分。因此从直观上来讲,我们的模型必定有一个升维的操作。
5. 这是总体的概念。
### 支持向量机
Support vector machines
函数间隔:![1619585515305](assets/1619585515305.png)
几何间隔:![1619585510005](assets/1619585510005.png)
这里使用的是几何间隔,前面讲到这里就不重复了
**最大间隔分离超平面:**
目前讲的是线性超平面
![1619585608306](assets/1619585608306.png)
> 图中心,虚线到实线的距离我们称之为γ,我们要做的是最大化γ,使得这个超平面调整为γ的一个最大值,等价于找到了最优的超平面
**式子如下:**
![1620100488418](assets/1620100488418.png)
> γ:表示几何间隔
>
> s.t. 表示约束
>
> yi正负1。保证算出来的数始终是大于0的如上图中“圈”表示+1的样本“×”表示负一的样本那么某个“圈”是正数乘以上方的yi正数正正得正某个点“×”是负数乘以下方的yi负数负负得正。
**简化上方的式子:**
我们知道max的γ是几何间隔那么我们变换一下
$$
\frac{\hat{γ}}{||w||} 其中,\hat{γ}表示函数间隔除以w二范数就是几何间隔了。
$$
$$
既然我们最终是\frac{\hat{γ}}{||w||} ,那么式子我们可以简化成
$$
![1620100528671](assets/1620100528671.png)
max的时候是几何间隔也就是最终s.t. 还是会约束着它朝着几何间隔去走,但是这样的好处就是下方的||w||就没有了
**简化后如下:**
![1620100544902](assets/1620100544902.png)
之前我们说过对于函数间隔我们等比例放大缩小w、b可以让最终结果变成1也就是γ=1
**再简化后:**
![1620100565725](assets/1620100565725.png)
$$
后面要用到拉格朗日乘子法,我们把\frac{1}{||w||}变成\frac{1}{2}||w||^2这两者是等价的
$$
**再简化后:**
![1620100585894](assets/1620100585894.png)
$$
\min_{w,b} \quad \frac{1}{2}||w||^2
$$
$$
s.t.\quad y_i(w*x_i+b)-1≥0 \quad i=1,2,...,N
$$
> 利用拉格朗日乘子法,推导成如下式子
![1620100681735](assets/1620100681735.png)
$$
L(w,b,α)=\quad \frac{1}{2}||w||^2-\sum^N_{i=1}α_iy_i(w*x_i+b)+\sum^N_{i=1}α_i
$$
$$
目标:\min_{w,b}\max_aL(w,b,α)
$$
$$
转换成:\max_a\min_{w,b}L(w,b,α)
$$
将拉格朗日函数L(w,b,α)分别对w,b求偏导并令其等于0
![1620100449792](assets/1620100449792.png)
进行推导
![1620100641814](assets/1620100641814.png)
2.求minL(w,b,α)对α的极大,即是对偶问题
3.求max转换成min
![1620100936402](assets/1620100936402.png)
接下来就是求解α的问题了,但是我们还得解决另外的一个问题
### 软间隔最大化
Maximum soft interval
![1620101185820](assets/1620101185820.png)
如上图所示,圈和叉表示两个不同的类别,但有的圈那边有叉,有的叉那边也有圈,怎么解决呢
![1620101313591](assets/1620101313591.png)
> 加入ξ松弛变量,即允许有一些交叉的类别样本
![1620101514666](assets/1620101514666.png)
> 变成如上式子,但同时我们也对ξ约束,防止它是过大的
![1620101572529](assets/1620101572529.png)
最终的结果为:
![1620101686121](assets/1620101686121.png)
![1620101696428](assets/1620101696428.png)
这样接下来的问题就只剩求解α了
### 核函数
Kernel function
**现在到了这里:**
![1620101877936](assets/1620101877936.png)
![1620101888622](assets/1620101888622.png)
**目前的问题:**
式子中间有xi核xj的点积
例如在手写数字数据集中训练集有6万个样本6万乘6万勉强能接受
但如果每个样本有784维6万样本两两做点积是非常慢的。如果x是更高的维度呢
**梳理一下:**
1. 由于公式的需要我们需要计算xi和xj的点积
2. 此外,我们需要将样本映射到高维去,加入映射函数ø(x),那么ø(xi)和ø(xj)的维度数目进一步扩大,它们的点积会让运算变得极其复杂
3. 我们希望存在一个函数K(xi,yi)=ø(xi)×ø(xj)但函数K的计算方式更简单。也就是说我们将样本通过函数升维得到ø(xi)和ø(xj),接下来要计算它们的点积,能不能有个简单的计算公式,计算出来的结果和ø(xi)×ø(xj)一样?那样我们就不用再去算ø(xi)和ø(xj)的结果了,直接用简单方式计算不是更好吗?
这个简便方式,就是核函数
**在SVM中我们通常使用高斯核:**
![1620102775997](assets/1620102775997.png)
在计算x和z的点积时直接用这个公式替代就好了
### 序列最小最优化算法SMO
Sequetial minimal optimization
之前我们还剩下α求解我们用SMO
**我们最后求解出来的α一定是让整个结果满足KKT条件的。如果不满足那一定不是最优解。**
**所以我们可以不断地调整α的值直到所有α都满足KKT条件这是我们一定能得到最优解。**
**怎么调整呢——用SMO**
假设整个式子中有N个α(α1,α2,α3,...,αN)先固定其它αα1,先让α1满足KKT条件。但如果固定除α1以外的所有α等于也固定了α1.
![1620103167523](assets/1620103167523.png)
所以我们每次选择优化两个α
![1620103181711](assets/1620103181711.png)
进一步原式中目前hi有α1和α2两个变量我们将其它作为常数去除。
![1620100936402](assets/1620100936402.png)
整理如下:
![1620104035262](assets/1620104035262.png)
![1620104045040](assets/1620104045040.png)
目前可知α1一定在0和C之间
![1620104366359](assets/1620104366359.png)
![1620104377604](assets/1620104377604.png)
![1620104388470](assets/1620104388470.png)
![1620104396366](assets/1620104396366.png)
**最终得到结果:**
![1620104470719](assets/1620104470719.png)
其中L与H是![1620104485040](assets/1620104485040.png)所在对角线段端点的界如果y1≠y2如下左图所示
![1620104518723](assets/1620104518723.png)
如果y1=y2如下右图所示
![1620104531858](assets/1620104531858.png)![1620104541380](assets/1620104541380.png)
现在对于两个α,我们已经知道该怎么优化了。那么怎么从总舵的α中挑选两个合适的来进行优化呢?
——找到**违反KKT最严重**的。
**第一个变量的选择:**
![1620107006621](assets/1620107006621.png)
**第二个变量的选择:**
在第一个变量步子迈大的情况下,再找一个步子迈得最大的α。它的量化方式|E1-E2|
![1620107078112](assets/1620107078112.png)
两个α都找到一个进行优化然后找下一对α直到再也找不到不违反KKT的α为止。
### 总结
Summary
1. SVM首先从最大间隔出发设计了可构造最优超平面的线性模型。
2. 考虑到存在噪音或有部分点让人很为难,添加了软间隔。变成了具有软间隔功能的线性模型。
3. 通过对数据的升维,使得模型变成了非线性。可以用于非线性数据集。
4. 升维后无穷维的点积运算难以实现,引入了核函数简化运算。