支持向量机(SVM)

摘要:
12.KKT条件:2。对svm 1的直观理解。支持向量机模型的数学表达式本质上是与模型2相对应的优化问题。支持向量机模型的思想:找到与预测数据相似的训练数据,并对相应的因变量进行加权,得到最终的预测值。默认值1.0C越高,等于惩罚放松变量。我希望松弛变量接近0,即,错误分类的惩罚增加,这往往是训练集完全配对的情况,因此在测试训练集时准确率很高,但泛化能力较弱。

一、概念

  1、分离超平面:空间内能够将数据分为不同类别的平面

  2、线性可分:不同类别数据能够被一个超平面完全分开

  3、损失项:模型在数据上违反自身分类原则的程度(是一个求和项)

   4、损失系数:损失项的系数(是一个超参数,由模型给定)

  5、损失函数L = min (1/2*(||w||)2) + C*max(Σi max(0,1-y(i)*(w.x(i) +c))

  6、预测损失:损失函数的第二项(称作 hinge loss)

  7、惩罚项:损失函数的第一项 (在svm中,惩罚项的初衷是最大化margin(两个分类之间的距离))

  8、hard margin : C比较大,此时margin较小,模型更注重靠近超平面的异常点

  9、soft margin :C比较小,此时margin较大,模型更注重靠近类别中心的点

  10、核函数:机器学习重要的数据处理技巧,通过核函数将原空间中的非线性数据映射为高维(或者无限维)空间中近似线性关系的数据,机器学习模型搭载核函数的方法大体一致。

       常用的核函数:

          1、线性核函数(linear kernel)

          2、多项式核函数(ploynomial kernel)

            3、S型核函数(sigmoid kernel)

            4、拉普拉斯核函数(laplacian kernel)

          5、高斯核函数(RBF kernel)

      常用的核函数选择方法:

          1、网格搜寻 (grid search)

  11、拉格朗日对偶:一种在一个或多个约束下,寻找多元函数极值的方法。一定条件下 原始问题 和 对偶问题 等价。

  12、KKT条件:

二、svm的直观理解

  1、支持向量机模型的数学表达,本质上就是该模型对应的最优化问题

  2、支持向量机模型的思路:寻找与被预测数据相似的训练数据,并将相应的因变量加权平均得到最后的预测值。权值是关键。

  3、机器学习领域的共识:数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已

  4、只有落在虚线上,或者两条虚线时间的点,权重才有可能不等于0,这些点成为 支持向量(support vector)

三、、模型实际应用,所面对实际条件:

  1、现实生活中需要面对的数据集大多数是线性不可分的

  2、隐含假设:每个数据点权重其实不一样,越靠近分离超平面,数据的权重越大,而且损失系数C越大(hard margin ),数据权重不一样的现象越严重

  3、选择模型依据: (1)希望模型对靠近‘边缘’的点更加敏感,则选择 hard margin ;(2) 希望综合考虑每一个点,使用soft margin ,或者逻辑回归

  4、支持向量机对特征(自变量)的线性变换 不稳定(scale variant),即是说在预处理时,对自变量做不同的线性变换,会极大影响svm的分类效果 解决办法:将各个变量归一化后,再使用svm进行分类 四、python scikit-learn 包 中 svc 用法

本身这个函数也是基于libsvm实现的,所以在参数设置上有很多相似的地方。(PS: libsvm中的二次规划问题的解决算法是SMO)。
sklearn.svm.SVC(C=1.0kernel='rbf'degree=3gamma='auto'coef0=0.0shrinking=Trueprobability=False,

tol=0.001cache_size=200class_weight=Noneverbose=Falsemax_iter=-1decision_function_shape=None,random_state=None)

参数:

 

l  C:C-SVC的惩罚参数C?默认值是1.0

C越大,相当于惩罚松弛变量,希望松弛变量接近0,即对误分类的惩罚增大,趋向于对训练集全分对的情况,这样对训练集测试时准确率很高,但泛化能力弱。C值小,对误分类的惩罚减小,允许容错,将他们当成噪声点,泛化能力较强。

l  kernel :核函数,默认是rbf,可以是‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’ 

    0 – 线性:u'v

    1 – 多项式:(gamma*u'*v + coef0)^degree

    2 – RBF函数:exp(-gamma|u-v|^2)

    3 –sigmoid:tanh(gamma*u'*v + coef0)

l  degree :多项式poly函数的维度,默认是3,选择其他核函数时会被忽略。

l  gamma : ‘rbf’,‘poly’ 和‘sigmoid’的核函数参数。默认是’auto’,则会选择1/n_features

l  coef0 :核函数的常数项。对于‘poly’和 ‘sigmoid’有用。

l  probability 是否采用概率估计?.默认为False

l  shrinking :是否采用shrinking heuristic方法,默认为true

l  tol 停止训练的误差值大小,默认为1e-3

l  cache_size :核函数cache缓存大小,默认为200

l  class_weight :类别的权重,字典形式传递。设置第几类的参数Cweight*C(C-SVC中的C)

l  verbose :允许冗余输出?

l  max_iter :最大迭代次数。-1为无限制。

l  decision_function_shape ‘ovo’, ‘ovr’ or None, default=None3

l  random_state :数据洗牌时的种子值,int

主要调节的参数有:C、kernel、degree、gamma、coef0。

免责声明:文章转载自《支持向量机(SVM)》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇登陆验证前对用户名和密码加密之后传输数据---base64加密Php在Window下的安装下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Coursera 机器学习 第8章(下) Dimensionality Reduction 学习笔记

8 Dimensionality Reduction8.3 Motivation8.3.1 Motivation I: Data Compression第二种无监督问题:维数约简(Dimensionality Reduction)。通过维数约简可以实现数据压缩(Data Compression),数据压缩可以减少计算机内存使用,加快算法运算速度。什么是维数...

支持向量机

支持向量机从线性可分情况下的最优分类面发展而来。 思想 分类:寻找类间的分类平面,使得类到该分类平面的距离尽可能大,即分类平面两侧的空白区域尽可能大。 映射:通常样本数据线性不可分,可以应用固定的非线性映射(核函数)将数据映射到高维空间中,在高维空间中的线性分类等价于原始空间中的非线性分类;在高维空间中计算映射后数据的内积如同在原始数据中计算内积一样。 核...

《机器学习导论》札记

《机器学习导论》 (土耳其)Ethem Alpaydin 著   范明等译。 1.1 什么是机器学习 1)机器学习方法在大型数据库中的应用称为数据挖掘(data mining)。数据挖掘也称数据库知识发现(knowledge discovery in databases,KDD) 1.2 机器学习的应用实例  1.2.1 学习关联性  (条件概率)  1....

第十三章——卷积神经网络(CNN)

卷积神经网络(Convolutional neural networks,CNNs)来源于对大脑视觉皮层的研究,并于1980s开始应用于图像识别。现如今CNN已经在复杂的视觉任务中取得了巨大成功,比如图像搜索,自动驾驶,语言自动分类等等。同时CNN也应用于了其他领域,比如语音识别和自然语言处理。 13.1视觉皮层机理 David H. Hubel和Tors...

博雅大数据机器学习十讲第三讲

点到平面的距离 直线方程:(w_1x_1+w_2x_2+w_0 = 0) 点到直线距离(d = frac {|w_1x_1^{'}+w_2x_2^{'}+w_0|}{sqrt{w^2_1+w^2_2}}) 欧式空间超平面:(w_1x_1+w_2x_2+...+w_dx_d+w_0 = 0) 点到超平面距离: [d = frac {|w_1x_1^{'...

自监督学习(Self-Supervised Learning)多篇论文解读(上)

自监督学习(Self-Supervised Learning)多篇论文解读(上) 前言 Supervised deep learning由于需要大量标注信息,同时之前大量的研究已经解决了许多问题。所以近期大家的研究关注点逐渐转向了Unsupervised learning,许多顶会包括ICML, NeurIPS, CVPR, ICCV相继出现一些不错的...