什么是“维数灾难”,为什么说引入核函数就避免“维数灾难”

  统计/机器学习 回归分析 开放问题    浏览次数: 93
0

在文献中看到说如果要构造一个显式的映射将样本空间中的点映射到高维特征空间中,有可能会面临“维数灾难”的危险,所以想请问一下,机器学习当中所谓的“维数灾难”指的具体是什么呢?怎么样去理解这个概念呢?为什么说SVM通过构造核函数而无需显式地知道这个映射关系就避开了“维数灾难”呢?

 

CE_PAUL   2018-06-11 23:39



    还没有回答。我来答!  


  相关主题

Sigmoid核函数是不是对新输入的需要预测的点的测量误差不敏感?   1回答

LS-SVM的核函数选取问题   1回答

如何对大型线性回归进行并行计算?   2回答

线性回归是机器学习算法吗?   3回答

有序的分类变量的预测是回归问题还是多分类问题?   3回答

如何理解PAC Learning?   1回答

bias-variance tradeoff是什么意思?   1回答

机器学习如何快速入门?   1回答

baseline模型和benchmark模型的差别?   1回答

hyperparameter与parameter的区别?   3回答

在线算法(online algorithm)是什么意思?   2回答

建立一个预测模型的流程是什么   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!