机器视觉之家VISIONHOME微信公众号:石鑫华视觉网

 找回密码
 注册会员
查看: 623|回复: 0

[原创] 支持向量机SVM

[复制链接]

主题

好友

12万

积分

超级版主

  • TA的每日心情
    擦汗
    昨天 12:51
  • 签到天数: 1169 天

    [LV.10]100FPS

    发表于 2015-3-30 11:04:13 |显示全部楼层
    支持向量机(英语:Support Vector Machine,学术文献中常简称为SVM,中文简称则是SV)是一种监督式学习的方法,可广泛地应用于统计分类以及回归分析。* f4 P6 H5 Z  Y7 A2 |
    支持向量机属于一般化线性分类器,也可以被认为是提克洛夫规范化(Tikhonov Regularization)方法的一个特例。这族分类器的特点是他们能够同时最小化经验误差与最大化几何边缘区,因此支持向量机也被称为最大边缘区分类器。
    * e7 r6 V* {4 L/ C  ~3 J% J$ X; \. g$ e! I5 u7 ?: ?
    介绍支持向量机将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面,分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小。一个极好的指南是C.J.C Burges的《模式识别支持向量机指南》。van der Walt和Barnard将支持向量机和其他分类器进行了比较。
    ! [8 @+ Z4 |" G4 O3 d, u7 A5 @
    有很多个分类器(超平面)可以把数据分开,但是只有一个能够达到最大分割。

    7 Q8 F9 d* J; Y$ x
    + C0 ?! f( _8 s3 R8 e动机6 p4 o- G- D" o+ d" F, S1 ^  y+ p
    + m: Z, I# w4 T5 |- |
    我们通常希望分类的过程是一个机器学习的过程。这些数据点并不需要是
    中的点,而可以是任意(统计学符号)中或者 (计算机科学符号)的点。我们希望能够把这些点通过一个n-1维的超平面分开,通常这个被称为线性分类器。有很多分类器都符合这个要求,但是我们还希望找到分类最佳的平面,即使得属于两个不同类的数据点间隔最大的那个面,该面亦称为最大间隔超平面。如果我们能够找到这个面,那么这个分类器就称为最大间隔分类器。

    ) \" Z- x2 X5 A: ^% ?+ F设样本属于两个类,用该样本训练svm得到的最大间隔超平面。在超平面上的样本点也称为支持向量.

    : k. v: j- V6 V% C2 v
      L( l. N7 g) K( W' f7 q: ~4 V我们考虑以下形式的样本点 超平面的数学形式可以写作# K4 I+ E4 Q4 ]% H$ h

    , S" ], k; O" I) E, Q4 G' ^其中是超平面上的点,是垂直于超平面的向量。
    " L6 s1 ?9 U9 v$ L% e! }根据几何知识,我们知道向量垂直于分类超平面。加入位移b的目的是增加间隔。如果没有b的话,那超平面将不得不通过原点,限制了这个方法的灵活性。
      P, r# d: U2 W! v. T由于我们要求最大间隔,因此我们需要知道支持向量以及(与最佳超平面)平行的并且离支持向量最近的超平面。我们可以看到这些平行超平面可以由方程族:
    / F, j: C" E4 ]0 g2 B, \& V( @, i
    " B) s0 d. R: }+ I  r0 W1 U0 \2 y0 V
    来表示。 由于只是超平面的法向量,长度未定,是一个变量,所以等式右边的1和-1只是为计算方便而取的常量,其他常量只要互为相反数亦可。4 L( b% s1 s& v) J. ^: i1 v) V
    如果这些训练数据是线性可分的,那就可以找到这样两个超平面,在它们之间没有任何样本点并且这两个超平面之间的距离也最大。通过几何不难得到这两个超平面之间的距离是2/|w|,因此我们需要最小化 |w|。同时为了使得样本数据点都在超平面的间隔区以外,我们需要保证对于所有的满足其中的一个条件  g$ o8 r9 n2 {! C  r1 a0 [7 u
    这两个式子可以写作:$ p/ Q8 R: y, r& `( J; ?' a; D
    =1,i<=i* C) O/ {4 g, e- L
    1 L5 N& o0 u, e; N$ `' D
    原型3 u& \# t! l. W8 v: O
    $ ?; E; n3 A/ `  P  |# \8 ?
    现在寻找最佳超平面这个问题就变成了在(1)这个约束条件下最小化|
    w|.这是一个二次规划QP(quadratic programming)最优化中的问题。4 r7 `, B' q0 M; a- ~
    更清楚的表示:( G2 J+ G- B4 N9 |$ Y
    最小化,满足,其中, ^  L: }  ?1 [* K; m3 F. Q
    1/2这个因子是为了数学上表达的方便加上的。
    ! p. i- |) k. b  P3 x$ f7 e解如上问题通常的想法可能是使用非负拉格朗日乘数 于下式4 s  G0 L# M3 d* P+ H

    # G. X) |! A+ d' T- f: m1 M$ D不过这样可能出错. 原因是:假如我们能找到一族超平面将这些点分割开来;那么所有的 .因此我们可能通过将所有趋向得到最小值, 此最小值对这一族内所有成员都有效,而不是解决原问题的最优解。- P" u, ]( i& Z% \# y6 T
    不过以前的约束问题可以表示为! S' k# x- f  Y$ L* L. Y

    / K1 u6 w4 C/ @+ J# b4 j/ G1 L此式表明我们寻找一个鞍点。这样所有可以被分离的点就无关紧要了,因为我们必须设置相应的 为零。7 U0 B! A0 z2 X' A8 _9 Q8 e% }

    2 Q9 S  @( `* i6 U0 t7 |& j$ y这个问题现在可以用标准二次规划技术标准和程序解决。结论可以表示为如下训练向量的线性组合9 R: e: ^. p6 P( o# p% I
    $ ]+ q! I$ m5 \6 [0 F2 q. C& t0 e& H
    只有很少的会大于0. 相应的就是支持向量, 这些支持向量在边缘上并且满足. 由此可以推导出支持向量也满足: 因此允许定义偏移量. 实际上此支持向量比一般的支持向量鲁棒性更强:- F/ b! ~) @1 o  M! j) q

    , e7 `6 |6 W+ s* U6 C' L0 ^9 f) E
    ) z7 D/ P8 J- K" h对偶型(Dual Form)
    " v9 y4 x2 }' A/ M4 ~9 c% h

    0 G( T- Y4 {* w5 ~把原型的分类规则写作对偶型,可以看到分类器其实是一个关于支持向量(即那些在间隔区边缘的训练样本点)的函数。

    " ^/ L0 M/ Q9 a! s根据,并且带入,可以得到支持向量机的对偶型如下:
    + z" c, i( y- z满足5 u7 s& }& U+ O! P: _1 Z! w
    / H1 }& b- l0 e* |! y* I

    - J/ }# U; v$ o! d6 ]7 S后验SVM& g( K$ s+ f8 G( y' p

      D: W; y" y4 |1 O$ ^, ~- n: N. y后验概率对分类器非常重要 分类器的输出必须结合后验概率才能确定 借助后验概率更好的改进超平面的泛化能力
    " o4 q8 @  F, Q4 O% x( }6 c
    软间隔Soft Margin( C, l  ^& M0 `# ~6 i. C  ^
    3 L$ Z9 A% u" H/ ^: V, l
    1995年, Corinna Cortes与Vapnik提出了一种改进的最大间隔区方法,这种方法可以处理标记错误的样本。如果可区分正负例的超平面不存在,则“软边界”将选择一个超平面尽可能清晰地区分样本,同时使其与分界最清晰的样本的距离最大化。这一成果使术语“支持向量机”(或“SVM”)得到推广。这种方法引入了松驰参数
    以衡量对数据的误分类度。
    ) Q3 |* e! K) N7 ?% f% C
    * B9 N: p  a3 t9 @随后,将目标函数与一个针对非0的惩罚函数相加,在增大间距和缩小错误惩罚两大目标之间进行权衡优化。如果惩罚函数是一个线性函数,则等式(3)变形为0 G3 ~( _, {( n9 _: G( Y$ H4 f6 G% Q. a

    + V5 A: ^+ F! p2 d
    ) b$ p* C7 v0 c. H% ^+ f$ r回归
    2 J0 X/ G- f# n5 M9 B; z
    8 P0 C2 h; z& j- g+ B9 ?  U( k  J
    解决问题的参数方法大多通过解决那些最优化的问题派生出来的,现有一些从SVM问题中诞生出来的可以快速解决QP问题的的算法,他们主要依靠把问题分割成更小更容易管理的模块的方法来实现。

    0 s5 o. @) Z; x4 ^! K
    # i2 x: W' |$ R9 w" v$ c% h2 O一个通用的算法是Platt's Sequential Minimal Optimization(SMO)算法,他把问题分成了若干个在二维空间成可以被解析的子问题,这样避开了需要解决数值最优化问题的难度。6 ^% l! J+ [$ b$ n0 F9 o, u

    9 C! d$ K' W. x( ?4 d另一个研究就是用使用了牛顿迭代的内点法找到Karush–Kuhn–Tucker情况下原始度偶问题的解决方法。与那些解决一系列小问题不同的是,这项研究直接解决了整体部分。避开解决这个线性问题的过程离不开核矩阵,矩阵的低阶近似往往是内核中使用技巧。) g5 J* e( H& n1 _$ p5 z
    % C3 Y+ A% S7 d7 U6 Y, o6 q8 F4 S
    应用
      2 l) j* g; ]  d! ?* m) K( t

      ' B1 V4 I; Z/ D( i0 a
        q0 v' {! r; W7 J
    • 用于文本和超文本的分类,在归纳和直推方法中都可以显著减少所需要的有类标的样本数。
    • 用于图像分类。实验结果显示:在经过三到四轮相关反馈之后,比起传统的查询优化方案,支持向量机能够取得明显更高的搜索准确度。
    • 用于医学中分类蛋白质,超过90%的化合物能够被正确分类。
    • 用于手写字体识别。: Q; ?$ X+ ^. L& z
    9 v" f3 b, q: @, U0 Z! [2 ~2 s

    相关帖子

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册会员

    本版积分规则

    淘宝机器视觉商城

    Archiver|手机版|小黑屋|视觉之家|东莞市华动智能科技有限公司 ( 粤ICP备17078359号-1 )|网站地图|申请友情链接

    GMT+8, 2018-4-21 10:02

    Powered by shixinhua.com X3.2 Licensed

    © 2012-2018 VISIONHOME.CN 浏览量:

    快速回复 返回顶部 返回列表