利用PCA降维,降到几维比较合适?

  统计/机器学习 数据降维 特征选择    浏览次数:2494        分享
2

当数据特征多的时候,我们可以用PCA降维,一般降到几维比较合适?

 

开门呀是我   2017-06-03 13:37



   1个回答 
5
  • 如果是为了数据可视化,可以降到1维(线),2维(平面),或者3维(立体)。
  • 如果是为了建立预测模型而降维,比较常用的方法是看多少个主成分解释了多少百分比的方差,常用的比如说99%,95%,90%。
  • 另一个方法是Kaiser's Rule,保留所有奇异值大于1的
  • 还有个类似elbow method的方法,画出主成分的个数和解释方差百分比的曲线,找出手肘的那个点。


SofaSofa数据科学社区DS面试题库 DS面经

batmanX   2017-06-06 11:13



  相关主题

为什么PCA被称作非监督式学习?   2回答

PCA与非负矩阵分解(NMF)的异同?   0回答

除了PCA,还有什么降维的方法?   11回答

Truncated SVD和PCA有什么区别吗?   1回答

PCA会降低分类器的精度吗?   3回答

PCA降维之前为什么要先标准化?   2回答

PCA的目标函数   1回答

PCA降维中的特征值和特征向量   2回答

PCA需要正态性作为提前假设吗?   1回答

PCA算法是一种保距算法吗?   0回答

PCA和SVD是一回事吗?   1回答

sklearn pca 数据降维结果不一致   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!