支持向量机(4)支持向量回归 & 多分类

SVM 是一个非常优雅的算法,具有完善的数学理论,虽然如今工业界用到的不多,但还是决定花点时间去写篇文章整理一下。

本质:SVM 想要的就是找到各类样本点到超平面的距离最远,也就是找到最大间隔超平面。为了对数据中的噪声有一定的容忍能力。以几何的角度,在丰富的数据理论的基础上,简化了通常的分类和回归问题。

几何意义:找到一个超平面将特征空间的正负样本分开,最大分隔(对噪音有一定的容忍能力);

间隔表示:划分超平面到属于不同标记的最近样本的距离之和;

【机器学习】支持向量机 SVM(非常详细)

一、支持向量回归 SVR

https://blog.csdn.net/ch18328071580/article/details/94168411

支持向量在隔代之外

1.1 SVR与一般线性回归的区别

SVR 线性回归
数据在间隔带内则不计算损失,当且仅当f(x)与y之间的差距的绝对值大于ϵ才计算损失 只要f(x)与y不相等时,就计算损失
通过最大化间隔带的宽度与最小化总损失来优化模型 通过梯度下降之后求均值来优化模型

岭回归:image-20220401144206172

支持向量回归:我们假设f(x)与y之间最多有一定的偏差,大于偏差才计数损失

(1)minw,b12w2+Ci=1mlϵ(f(xi),yi) 其中C为正则化常数, lϵ 是图中所示的 ϵ-不敏感损失 ( ϵ-insensitive loss)函数: (2)lϵ(z)={0, if |z|ϵ|z|ϵ, otherwise  引入松弛变量 ξi(ξi), 可将式重写为: (3)minw,b,ξi,ξi12w2+Ci=1m(ξi,ξ^i) s.t. f(xi)yiϵ+ξiyif(xi)ϵ+ξ^iξi0,ξ^i0,i=1,2,m 引入拉格朗日乘子 μi,

L(w,b,α,α^,ξ,ξ^,μ,μ^) =12w2+Ci=1m(ξi+ξ^i)i=1mξiμii=1mξ^iμi^ +i=1mαi(f(xi)yiϵξi)+i=1mαi^(yif(xi)ϵξ^i)

再令 L(w,b,a,a^,ξ,ξ^,μ,μ)w,b,ξi,ξ^i 的偏导为零可得: (4)w=i=1m(αi^αi)xi 上述过程中需满足KKT条件, 即要求: (5){αi(f(xi)yiϵξi)=0αi^(yif(xi)ϵξ^i)=0αiαi^=0,ξiξ^i=0(Cαi)ξi=0,(Cαi^)ξ^i=0.

二、多分类 SVM

2.1 多分类问题

  • 多分类问题拆解成若干个二分类问题,对于每个二分类训练一个分类器。
    • one vs one 拆解:K(K-1)/2 个分类器。
    • one vs Rest 拆解:K个分类器

image-20220401192909167

2.2 多分类线性SVM

  • 层次支持向量机

  • 回顾二分类

(6)minw,b1mi=1mmax(1yi(wxi+b,0)+λ2w2=minw,b1mi=1mmax(1yis(xi),0)+λ2w2.

  • 多分类线性SVM

(7)minW,b1mi=1mk=1KI(kyi)max(1s(xi)yi+s(xi)k,0)+λ2k=1Kwk2,