监督学习之支持向量机

支持向量机的目标是找到使决策界和训练样本之间最大化最小距离的线。

最优间隔分类器#

最有间隔分类器h h 是这样的:

h(x)=sign(wTxb)h(x)=sign(w^Tx-b)

其中(w,b)Rn×R (w,b)\in\R^n \times\R 是以下最优化问题的解决方案:

min12w2\min\frac{1}{2}||w||^2

使得

y(i)(wTx(i)b)1y^{(i)}(w^Tx^{(i)}-b)\ge1

ihBMgyaCnc.png!large

备注:该线定义为wTxb=0 w^Tx-b=0

合页损失#

合页损失用于 SVM,定义如下:

L(z,y)=[1yz]+=max(0,1yz)L(z,y)=[1-yz]_+=\max(0,1-yz)

#

给定特征映射ϕ \phi,我们定义核K K 为:

K(x,z)=ϕ(x)Tϕ(z)K(x,z)=\phi(x)^T\phi(z)

在实践中,由K(x,z)=exp(xz22σ2) K(x,z)=\exp(-\frac{||x-z||^2}{2\sigma^2}) 定义的核K K 被称为高斯核,并且经常使用这种核。

n5ZUqWqzl3.png!large

备注:我们说我们使用「核技巧」来计算使用核的成本函数,因为我们实际上不需要知道显式映射ϕ \phi, 通常,这非常复杂。相反,只需要K(x,z) K(x,z) 的值。

拉格朗日#

我们将拉格朗日L(w,b) \mathcal{L}(w,b) 定义如下:

L(w,b)=f(w)+i=1lβihi(w)\mathcal{L}(w,b)=f(w)+\sum\limits_{i=1}^l\beta_ih_i(w)

备注:系数βi \beta_i 被称为拉格朗日乘子

本作品采用《CC 协议》,转载必须注明作者和本文链接
不要试图用百米冲刺的方法完成马拉松比赛。