监督学习之支持向量机

支持向量机的目标是找到使决策界和训练样本之间最大化最小距离的线。

最优间隔分类器

最有间隔分类器h是这样的:

h(x)=sign(w^Tx-b)

其中(w,b)\in\R^n \times\R是以下最优化问题的解决方案:

\min\frac{1}{2}||w||^2

使得

y^{(i)}(w^Tx^{(i)}-b)\ge1

ihBMgyaCnc.png!large

备注:该线定义为w^Tx-b=0

合页损失

合页损失用于 SVM,定义如下:

L(z,y)=[1-yz]_+=\max(0,1-yz)

给定特征映射\phi,我们定义核K为:

K(x,z)=\phi(x)^T\phi(z)

在实践中,由K(x,z)=\exp(-\frac{||x-z||^2}{2\sigma^2})定义的核K被称为高斯核,并且经常使用这种核。

n5ZUqWqzl3.png!large

备注:我们说我们使用「核技巧」来计算使用核的成本函数,因为我们实际上不需要知道显式映射\phi, 通常,这非常复杂。相反,只需要K(x,z)的值。

拉格朗日

我们将拉格朗日\mathcal{L}(w,b)定义如下:

\mathcal{L}(w,b)=f(w)+\sum\limits_{i=1}^l\beta_ih_i(w)

备注:系数\beta_i被称为拉格朗日乘子

ai
本作品采用《CC 协议》,转载必须注明作者和本文链接

不要试图用百米冲刺的方法完成马拉松比赛。

讨论数量: 1

请勿发布不友善或者负能量的内容。与人为善,比聪明更重要!