机器学习之支持向量机(SVM)原理详解、公式推导(手推)、面试问题、简单实例(sklearn调包)

1. SVM 介绍

1.1. 思路

我们先思考我们为什么需要SVM简单的逻辑回归线性模型它不香吗

是的它不香。

为什么

  1. 从解决问题的角度讲有什么问题是SVM能轻松解决但是这哥俩死活解决不了的
    线性不可分问题如异或问题
    下图这类异或问题线性模型就解决不了即找不到任何一条直线能分割两类样本。我们一般有两种思路解决这个问题。一种是用感知机组成的有向图构造函数逼近器思路是多画几条线以区分样本点对应多层感知机另一种就是将这些点映射到高维空间再用超平面分割对应支持向量机。

在这里插入图片描述

  1. 从更好的解决问题的角度讲SVM具有啥优势
    更好的泛化能力
    我们可以看到SVM找到的超平面拥有强大的泛化能力对于可能出现的新的接近划分平面的样本点蓝色标注点的分类能力强于另外两种方法因为线性模型很难保证每次都取到距离所有点都很远的划分线。

在这里插入图片描述

我们之前提到支持向量机会把样本点映射到高维空间那这个是怎么做到的呢

这里就需要引入核函数它的主要功能就是这个几种比较常见的核函数如下

在这里插入图片描述

说到这里我们发现其实我们已经能解决问题了但是有点时候有些数据它就是难看我们很难找到一组非常合适的支持向量来支撑我们的超平面这个时候我们就想到了引入软间隔正则化。也正是因为存在软间隔支持向量机才会出现松弛变量和对应的损失计算。

1.2. 特性

SVM说实话能做的事情挺多的sklearn官网上就提到了分类、回归、异常值检测。优点也很明确

  • 高维空间表现好毕竟是靠超平面划分的
  • 样本数大于维数时表现依旧很好个人理解是因为在SVM中大多数的样本是用不到的只有小部分样本会被拿过来当支持向量因此比较适应小样本的环境
  • 内存友好因为超平面是由 几个 支持向量撑起来的所以不需要占很大的内存空间
  • 多样性核函数很多种多样甚至有些核对应特定问题

缺点也有

  • 样本数远小于特征数的时候需要仔细选择核函数和回归类型
  • SVM不会直接给出概率估计如果真的需要那可以用交叉验证但是显然这样会消耗大量资源

2. 前置知识

在推导SVM之前我们得先拣一拣忘光的数学知识。我这里只是提炼出这几个知识点中的结论够用就好如果想要彻底了解这几个知识点的基本原理和推导过程还需要读者额外参考其他资料。

2.1. 超平面

关于SVM我们需要对于超平面有最基本的认识包括但不限于以下3点。

  • 超平面的表达
  • 超平面计算距离
  • 超平面的正反

n维空间下的超平面表达式
w T x + b = 0 w^Tx+b=0 wTx+b=0
其中w和x为n维向量w = ( w 1 w_1 w1; w 2 w_2 w2;…; w n w_n wn) 代表n维空间的法向量决定超平面的方向x代表超平面内的点b代表位移项。实在不理解可以带入到三维空间想想。

超平面计算距离的方法很简单超平外的一点 x 到超平面 (w,b) 的距离为
r = ∣ w T x + b ∣ ∥ w ∥ r= \frac{\vert w^Tx+b\vert }{\Vert w \Vert } r=wwTx+b
上式中的 ∥ w ∥ \Vert w \Vert w 为一个L2范数
∥ w ∥ = ∑ i = 1 n w i 2 \Vert w \Vert = \sqrt{\sum_{i=1}^nw^2_i} w=i=1nwi2

超平面的正反意味着x点与超平面间的关系
x 在超平面的 { 正面 , w T x + b > 0 平面上 , w T x + b = 0 背面 , w T x + b < 0 x在超平面的\left\{ \begin{array}{rcl} 正面 & & ,w^Tx+b>0\\ 平面上 & & ,w^Tx+b=0\\ 背面 & & ,w^Tx+b<0\\ \end{array} \right. x在超平面的 正面平面上背面,wTx+b>0,wTx+b=0,wTx+b<0

我只是浅浅总结一下主要参考这篇的如果有小伙伴看不懂可以去逛逛。

2.2. 拉格朗日乘子法

拉格朗日乘子法完全还给高数老师的看这里题主讲的很不错醍醐灌顶。

我这边浅浅总结下要用的几个点主要强调解决这个问题的方法基本原理和想法这里不做要求。

整体思路是面对多元函数求极值问题时通过引入拉格朗日乘子a个变量b个约束条件的问题转化为a+b个变量无约束的问题然后优化求解。

这个时候我们就应该考虑约束条件了约束条件一般分为两种——等式约束和不等式约束。

等式约束

我们有目标函数和约束条件
m i n   f ( x ) s . t .    g ( x ) = 0 min\ f(x)\\s.t.\ \ g(x)=0 min f(x)s.t.  g(x)=0
那我们定义拉格朗日函数
L ( x , λ ) = f ( x ) + λ g ( x ) L(x,\lambda)=f(x)+\lambda g(x) L(x,λ)=f(x)+λg(x)
分别对 L ( x , λ ) L(x,\lambda) L(x,λ) x , λ x,\lambda x,λ的偏导置零将变量转化为条件。目标其实就是求 L ( x , λ ) L(x,\lambda) L(x,λ)的极值。

不等式约束

我们有目标函数和约束条件
m i n   f ( x ) s . t .    g ( x ) ≤ 0 min\ f(x)\\s.t.\ \ g(x)\le0 min f(x)s.t.  g(x)0
定义拉格朗日函数
L ( x , λ ) = f ( x ) + λ g ( x ) L(x,\lambda)=f(x)+\lambda g(x) L(x,λ)=f(x)+λg(x)
约束条件转化为KKT条件
{ g ( x ) ≤ 0 λ ≥ 0 λ   g ( x ) = 0 \left\{ \begin{array}{rcl} g(x)\le0\\ \lambda\ge0\\ \lambda \ g(x)=0\\ \end{array} \right. g(x)0λ0λ g(x)=0
问题转化为在KKT条件下求解 L ( x , λ ) L(x,\lambda) L(x,λ)的最小值。

2.3. 对偶问题

拉格朗日里面有个对偶问题这里需要提一下不然后面公式推导会有问题。我们通俗的讲就是这样的

我需要物色我的男朋友

原问题我要在一群高个的男生中挑一个最挫的。 m a x α   β ( m i n x   f ( x , α , β ) ) max_{\alpha \ \beta}(min_x \ f(x, \alpha, \beta)) maxα β(minx f(x,α,β))
对偶问题我要在一堆挫的中间挑一个个最高的。 m i n x ( m a x α   β   f ( x , α , β ) ) min_x(max_{\alpha \ \beta}\ f(x, \alpha, \beta)) minx(maxα β f(x,α,β))

那在一般情况下我按照这俩条件挑的最佳男友的评分不就是用公式理解一下
原问题 ≥ 对偶问题 原问题\ge对偶问题 原问题对偶问题
这个就是弱对偶问题。

如果碰巧这个男生既是最高的又是最挫的那这个时候
原问题 = 对偶问题 原问题=对偶问题 原问题=对偶问题
这个就是强对偶问题。

那什么时候弱对偶问题能转化为强对偶问题

我们变回数学语言那就是下面三个约束条件

  • 原问题是凸函数
  • g ( x ) g(x) g(x)是线性约束 a i x + b < 0 a_ix+b<0 aix+b<0
  • 满足KKT条件

3. 原理推导

3.1. 公式推导

我们首先得到支持向量机的基本型。

在这里插入图片描述

3.2. 求解

参考西瓜书的思路我们这里的求解也分为两部分第一部分是利用拉格朗日乘子法和对偶问题问题转化为一个给定约束条件求目标函数最大值的问题。第二部分我们利用SMO算法迭代找到最优解这里我们不考虑SMO算法的剪枝。

3.2.1. 转化对偶问题

条件数不够直接求解做不了所以我们用拉格朗日乘子法转化一下问题。

请添加图片描述

3.2.2. SMO算法

SMO算法与启发式算法的想法相似在面对n个变量的问题的时候选择固定一个变量一个一个推导但是在SVM这部分推导时不能直接这么做为什么

s . t .   ∑ i = 1 m α i y i = 0 s.t.\ \sum_{i=1}^m\alpha_iy_i=0 s.t. i=1mαiyi=0
因为上述约束条件决定了如果只有一个变量则可以直接推出
α 1 y 1 = − ∑ i = 2 m α i y i \alpha_1y_1=-\sum_{i=2}^m\alpha_iy_i α1y1=i=2mαiyi
无法解决问题因此我们在SMO算法中固定两个变量 α 1   α 2 \alpha_1\ \alpha_2 α1 α2以此计算 α \alpha α 的推导式。

在这里插入图片描述
在这里插入图片描述

4. 核函数与软间隔

这部分是SVM的精髓但是博主目前能力有限这部分的数学公式推导还没有完全搞明白未来可能会出相关的推导博文这里就先混着公式浅浅总结下。

我们之前推导的SMO算法等都是在线性约束条件下的但是面对非线性问题以及一些线性不可分的问题的时候我们还是需要核函数映射一下的把非线性问题转化为线性问题求解。

4.1. 核函数

非线性问题的求解大概分两步

  1. 把非线性问题在高维空间转化为线性问题
  2. 找到对应的核函数在求解时把高维的问题在低维下求解

大概推了下解释下上面俩步骤
请添加图片描述

上图举例的核函数是多项式核函数
( x i ⋅ x j ) d           d ≥ 1 (x_i\cdot x_j)^d\ \ \ \ \ \ \ \ \ d\ge1 (xixj)d         d1
下面再浅浅解释一下高斯核函数的一些特性

在这里插入图片描述

4.2. 软间隔

SVM因为支持向量的选取的原因很容易受噪声干扰在现实中很容易因为部分样本导致支持向量间距过窄。这个时候我们引入软间隔允许部分样本在间隔内。两者对比图如下。

在这里插入图片描述
关于软间隔的几个点提一下主要是有几个概念
在这里插入图片描述

5. 几个注意点(面试问题)

  支持向量机有几个注意点可能会在面试中被提到还是比较能体现被面试者对这个算法的理解的。当然我们也不一定就是为了面试搞清楚这些问题对帮助我们理解这个算法还是很有好处的。其中部分答案是博主自己的理解如果有问题请路过的大佬评论区指正。

  1. 是不是所有分类问题逻辑回归都能解决如果不能那还有什么其他思路吗

显然不是线性不可分的问题逻辑回归都不能解决如异或问题。一般来说这种问题还有两种方法解决1. 用感知机组成的有向图构造函数逼近器。2. 映射到高维空间中解决。支持向量机就是这个思路。

异或问题图如下我们可以发现很难找到一条线可以很好的区分这四个点的。

在这里插入图片描述

支持向量机的想法就是打算把这个二维的图映射到高维空间上并找到一个可行的平面如下图所示。

在这里插入图片描述

  1. 支持向量机的基本思路

上面都讲了这里不赘述。

  1. 支持向量机能否用于特征选择效果如何

能但是效果并不理想

  1. 支持向量机中的“支持”应该怎么理解

支持向量机的思路是在样本空间中找到出一个划分的超平面这个超平面是由很多个边界的点支持向量支撑起来的所谓“支持”就是这些通过这些支持向量撑起一个最佳的划分超平面。

  1. 在支持向量机中是否所有的样本都是有效的

不是支持向量机中只有支持向量那几个样本是有效的因为超平面的划分只跟这几个样本有关跟其他样本无关。

  1. 讨论线性判别分析LDA和线性核支持向量机SVM在何种条件下等价

  • LDA针对多分类问题SVM针对二分类问题当然n分类也不是不可以做。
  • LDA看重同类点间方差最低和不同类样本中心间隔最大然后投射到一条直线上这跟SVM也不一样。

因此在二分类和数据线性可分问题时两者等价。

  1. 高斯核SVM核RBF神经网络之间的联系

SVM 的确与神经网络有密切联系若将隐层神经元数设置为训练样本数且每个训练样本对应一个神经元中心则以高斯径向基函数为激活函数的RBF网络恰与高斯核SVM的预测函数相同。p145《休息一会儿》出处

  1. 为什么SVM对噪声敏感

SVM在硬间隔的情况下对噪声十分敏感因为本质上SVM分类器是一开那几个支持向量划分平面的一旦支持向量中存在噪声点就会导致分类器划分的依据中掺杂含有噪声的数据导致划分不当。噪声也可能导致模型的泛化能力变差因为如果噪声点因为满足划分条件被划对了这会压缩划分超平面时两端的间距在使用模型时泛化能力差。从结果导向来看正是因为噪声对模型的影响过大才出现了后来的软间隔方法来减少噪声对其的影响。

  1. 在空间上线性可分的两类点分别向SVM分类的超平面上做投影这些点在超平面上的投影仍然是线性可分的吗

当然不下面我分 3 部分解释这个命题。
1 举反例
  我们将问题简化为二维的那么超平面将退化为一条线。那么这些投影不一定是线性可分的结果如下
在这里插入图片描述

2 反证法
  我们进一步用反证法证明这一组点的投影都是线性不可分的。因为支持向量机中的超平面仅仅由支持向量决定所以我们考虑只有支持向量的情况。在二维的情况下假设这些点的投影是线性可分的那么我们得到这样一个图。1号线为两组点的超平面这两组点在这个平面上的投影线性可分。
在这里插入图片描述
  但是如果这两组点是一批支持向量的话那么显然 AB 的中垂线 2号线更适合作为超平面是更优的超平面的解在这个超平面中这两组点显然是线性不可分的。
  在证明是基于在超平面换了之后支持向量不变的情况下的如果要严谨证明的话那还要说明为什么超平面换了之后支持向量不会改变即SVM的结果仅仅依赖支持向量。我的建议是把这个当作结论来记证明需要联系KKT条件 g i ( w ∗ ) < 0 g_i(w^*)<0 gi(w)<0 时必有 a i ∗ = 0 a_i^*=0 ai=0 和拉格朗日对偶优化问题公式 g i ( w ∗ ) = − y i ( w ∗ ⋅ x i + β ∗ ) + 1 g_i(w^*)=-y_i(w^*·x_i+\beta^*)+1 gi(w)=yi(wxi+β)+1 色到出支持向量外其他系数都为零即SVM的分类结果仅仅依靠支持向量。

3 超平面分离定理SHT
  对于这个问题SHT定理是一条捷径这个定理描述的是对于两个不相交的凸集存在一个超平面将两个凸集分离。那么对于二维的情况这个超平面就是两个凸包上最短的两点的连线的中垂线。接下来就是分类讨论凸包上最近的两个点的关系了。
在这里插入图片描述
  无论哪种情况都是线性不可分的。

  1. 是否存在一组参数使得SVM训练误差为0

在所有样本的类别都被正确预测时训练误差为0。证明我不太会大概思路时在高斯核SVM中把 ∣ ∣ f ( x ( j ) ) − y ( j ) ∣ ∣ ≤ ∑ i = 1 , i ≠ j m e − ∣ ∣ f ( x ( j ) ) − x ( i ) ∣ ∣ 2 / γ 2 ||f(x^{(j)})-y^{(j)}|| \le \sum^{m}_{i=1,i\ne j}{e^{-||f(x^{(j)})-x^{(i)}||^2/\gamma^2}} ∣∣f(x(j))y(j)∣∣i=1,i=jme∣∣f(x(j))x(i)2/γ2 放缩到 ∑ i = 1 , i ≠ j m ∣ ∣ e − l o g m ∣ ∣ \sum^{m}_{i=1,i\ne j}||{e^{-logm}}|| i=1,i=jm∣∣elogm∣∣= ( m − 1 ) / m < 1 (m-1)/m<1 (m1)/m<1这意味着预测结果与真实结果相差小于1所以 y j = 1 y^{j}=1 yj=1 f ( x ( j ) ) > 0 f(x^{(j)})>0 f(x(j))>0 y j = − 1 y^{j}=-1 yj=1 f ( x ( j ) ) < 0 f(x^{(j)})<0 f(x(j))<0。这时可以发现所有样本类别都被正确预测时训练误差=0。

  1. 一定存在训练误差为0的SVM分类器吗

一定。联系上一个问题这个问题时找到一个参数可以使得误差=0且为SVM模型的一个解。在SVM中 y ( i ) ⋅ f ( x ( j ) ) ≥ 1 y^{(i)}·f(x^{(j)})\ge 1 y(i)f(x(j))1所以接下来我们的目标是在上给问题的基础上多证明 y ( i ) ⋅ f ( x ( j ) ) ≥ 1 y^{(i)}·f(x^{(j)})\ge 1 y(i)f(x(j))1 这个条件。
把预测公式 f ( x ) = ∑ i = 1 m α i y ( i ) K ( x ( i ) , x ) f(x)=\sum_{i=1}^{m}{\alpha_iy^{(i)}K(x^{(i)},x)} f(x)=i=1mαiy(i)K(x(i),x) 代入限制条件中化简得到 y ( i ) ⋅ f ( x ( j ) ) = α j + ∑ i = 1 m α i y ( i ) y ( j ) K ( x ( i ) , x ( j ) ) y^{(i)}·f(x^{(j)}) = \alpha_j+\sum_{i=1}^{m}{\alpha_i y^{(i)}y^{(j)}K(x^{(i)},x^{(j)})} y(i)f(x(j))=αj+i=1mαiy(i)y(j)K(x(i),x(j))如果 α j \alpha_j αj γ \gamma γ 小那么 K ( x ( i ) , x ( j ) ) K(x^{(i)},x^{(j)}) K(x(i),x(j)) 就很小很小那么 y ( i ) ⋅ f ( x ( j ) ) y^{(i)}·f(x^{(j)}) y(i)f(x(j)) 将完全由 α j \alpha_j αj 决定很容易达到 y ( i ) ⋅ f ( x ( j ) ) ≥ 1 y^{(i)}·f(x^{(j)})\ge 1 y(i)f(x(j))1

  1. 加入松弛变量之后的SVM的训练误差可以为0吗

不一定。因为惩罚系数C为一个未知常数所以这个问题还是有点疑惑的点的。SMO算法的线性分类器不一定的发哦训练误差=0的模型因为我们的算法目标改变了相比于训练误差最小有点训练误差但是参数较小的点将会更受青睐。
特例C=0时w=0也能达到优化目标但是此时显然我们的训练误差不一定=0。

  1. 不是所有的非线性问题都可以通过SVM解决

是的。如果打一个数据集 x i x_i xi映射到无限维那一定可以找到一个维度中这个问题是线性可分的只不过求解的时候计算量非常大会比较慢。

6. 代码详解

6.1. sklearn SVM

二分类问题和多分类问题都可以用SVC, NuSVC 和 LinearSVC完成我们一一尝试。这边不详细解释原理细究可以查看官网。SVC和NuSVC相似LinearSVC在线性核下更快

def package_SVM(data, label):
    print("SVC")
    # 建模
    # 默认是rbf核函数可以改poly,linear,sigmoid,precomputed核
    # 还有正则化参数还算重要的
    # 很多svc的参数都跟特定问题相关比如coef0就只在poly,sigmoid核下比较重要
    # 乳腺癌这个问题比较简单我就一路默认过去了
    svc = SVC(random_state=1129)
    # 训练这里使用交叉验证
    score = cross_val_score(svc, data, label, cv=5)
    print("%0.4f accuracy with a standard deviation of %0.4f" % (score.mean(), score.std()))

    print("NuSVC")
    # 跟SVC相似但是使用了一个参数去控制支持向量的数量
    nusvc = NuSVC(random_state=1129)
    # 训练这里使用交叉验证
    score = cross_val_score(nusvc, data, label, cv=5)
    print("%0.4f accuracy with a standard deviation of %0.4f" % (score.mean(), score.std()))

    print("LinearSVC")
    # 类似线性核下的svc但是选惩罚函数和损失函数时更灵活也能更好的扩展到大样本数据中
    # 有penalty(l1, l2), loss(hinge, squared_hinge)参数不建议l1 和 hinge组合
    linearsvc = LinearSVC(random_state=1129)
    score = cross_val_score(linearsvc, data, label, cv=5)
    print("%0.4f accuracy with a standard deviation of %0.4f" % (score.mean(), score.std()))

效果如下

在这里插入图片描述

7. 代码实现可直接食用

import collections
import random
import numpy as np
import pandas as pd
import warnings
warnings.filterwarnings("ignore")
from sklearn.datasets import load_breast_cancer
from sklearn.preprocessing import StandardScaler
from sklearn.svm import SVC, NuSVC, LinearSVC
from sklearn.model_selection import train_test_split, cross_val_score


def try_SVM(dataset):

    pass


def package_SVM(data, label):
    print("SVC")
    # 建模
    # 默认是rbf核函数可以改poly,linear,sigmoid,precomputed核
    # 还有正则化参数还算重要的
    # 很多svc的参数都跟特定问题相关比如coef0就只在poly,sigmoid核下比较重要
    # 乳腺癌这个问题比较简单我就一路默认过去了
    svc = SVC(random_state=1129)
    # 训练这里使用交叉验证
    score = cross_val_score(svc, data, label, cv=5)
    print("%0.4f accuracy with a standard deviation of %0.4f" % (score.mean(), score.std()))

    print("NuSVC")
    # 跟SVC相似但是使用了一个参数去控制支持向量的数量
    nusvc = NuSVC(random_state=1129)
    # 训练这里使用交叉验证
    score = cross_val_score(nusvc, data, label, cv=5)
    print("%0.4f accuracy with a standard deviation of %0.4f" % (score.mean(), score.std()))

    print("LinearSVC")
    # 类似线性核下的svc但是选惩罚函数和损失函数时更灵活也能更好的扩展到大样本数据中
    # 有penalty(l1, l2), loss(hinge, squared_hinge)参数不建议l1 和 hinge组合
    linearsvc = LinearSVC(random_state=1129)
    score = cross_val_score(linearsvc, data, label, cv=5)
    print("%0.4f accuracy with a standard deviation of %0.4f" % (score.mean(), score.std()))



if __name__ == '__main__':
    random.seed(1129)
    data = load_breast_cancer(as_frame=True).data
    label = load_breast_cancer(as_frame=True).target
    # 标准化一下数据方便计算
    data = StandardScaler().fit_transform(data)
    X_train, X_test, y_train, y_test = train_test_split(data, label, test_size=0.2, random_state=1129)
    dataset = (X_train, X_test, y_train, y_test)
    choice = 0
    while choice != 3:
        print("0. 查看数据\n1. 手写SVM\n2. 调包SVM\n3. 退出")
        try:
            choice = int(input())
        except:
            break
        if choice == 0:
            print("特征数据\n", data)
            print(data.shape)
            print("标签数据\n", label)
            print(dict(collections.Counter(label)))
        elif choice == 1:
            print("手写SVM求解中...")
            try_SVM(dataset)
        elif choice == 2:
            print("调包SVM求解中...")
            package_SVM(data, label)
        else:
            print("退出成功")
            choice = 3
            break


参考
吴恩达《机器学习》
《百面机器学习.》

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: 机器学习