为什么SVM里两个超平面的距离是1/||w||?

  统计/机器学习 监督式学习    浏览次数:389        分享
0

为什么SVM里两个超平面

wb = 0

wb + 1 = 0

的距离是1/||w||?

 

didod   2019-05-02 12:38



   2个回答 
4

根据平行超平面距离公式,$w*x-b_1=0$和$w*x-b_2=0$的距离是 $d=\frac{|b_1-b_2|}{\Vert w \Vert}$

代入$b_1=-b,b_2=-b+1$,$d=\frac{1}{\Vert w \Vert}$。

几何意义是超平面$w*x=b$在法向量$w$上的投影是常数$b$(因为所有$w *x$都等于$b$),然后再把$w$单位化,除以$w$长度$\Vert w \Vert$。最终,$w*x=b$在其单位法向量$\frac{w}{\Vert w \Vert}$上的投影是常数$\frac{b}{\Vert w \Vert}$。对两条线有两个常数,所求距离就是两个常数之差。


SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2019-05-03 00:16

2

$wb+1=0$和$wb=0$这两个平面平行,它们的法向量就是$w$,所以距离就是$1/\|w\|$。

SofaSofa数据科学社区DS面试题库 DS面经

sasa   2019-05-03 10:44



  相关主题

SVM模型的可解释性如何?   3回答

SVM和LR适合稀疏数据吗?   2回答

LS-SVM的核函数选取问题   1回答

如果支持向量机做回归任务,支持向量是什么?   1回答

SVM里的软间隔是什么意思   2回答

在SVM中获知一个分类机/回归机需要有多训练点?   1回答

为什么岭回归和最小二乘支持向量回归有一样二次规划形式却有不同解   2回答

为什么说LR适合大样本,SVM适合小样本?   2回答

支持向量机(SVM)里的支持向量是什么意思   6回答

SVM的支持向量最少有几个?   1回答

与基于一般形式的支持向量回归相比,最小二乘支持向量回归更准确?   2回答

线性核svm与文本分类   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!