SVM模型的可解释性如何?

  统计/机器学习 监督式学习 开放问题    浏览次数:1261        分享
0

一般大家都说线性模型解释性好,boosting模型解释性差,很少看到对SVM的解释性的总结。请问SVM模型的可解释性如何?

 

waccam   2018-06-28 22:05



   2个回答 
1

如果是线性的kernel,有良好的解释性,类似于线性回归。

如果是非线性的kernel,比如rbf,那么解释性则很差。


SofaSofa数据科学社区DS面试题库 DS面经

GuoLinhui   2018-07-02 20:59

1

逻辑回归求的$d$维参数$w$,表示每个输入特征对结果$y$的重要性,所以从特征的角度很好解释。然而SVM以测试点$z$和所有支持向量$x_i$的相识度向量$k(x_i,z)$作为特征,所以从输入向量$z$来说就不好解释。应该做预处理,计算出点的相识度向量$k(x_i,z)$,然后就容易解释了。比如$k(x_i,z)$很大($z$和某个支持向量$x_i$相似),而且$c_i$较大($x_i$靠近分割超平面),此时$y_i$对输出标签的影响就很大。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2019-04-23 02:02



  相关主题

SVM和LR适合稀疏数据吗?   2回答

LS-SVM的核函数选取问题   1回答

支持向量机(SVM)里的支持向量是什么意思   6回答

在SVM中获知一个分类机/回归机需要有多训练点?   1回答

SVM的支持向量最少有几个?   1回答

为什么岭回归和最小二乘支持向量回归有一样二次规划形式却有不同解   2回答

感知机和支持向量机的区别是什么?   2回答

为什么说LR适合大样本,SVM适合小样本?   2回答

为什么SVM里两个超平面的距离是1/||w||?   2回答

如果支持向量机做回归任务,支持向量是什么?   1回答

SVM里的软间隔是什么意思   2回答

与基于一般形式的支持向量回归相比,最小二乘支持向量回归更准确?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!