利用PCA降维,降到几维比较合适?

  统计/机器学习 数据降维 特征选择    浏览次数: 1366
2

当数据特征多的时候,我们可以用PCA降维,一般降到几维比较合适?

 

开门呀是我   2017-06-03 13:37



   1个回答 
5
  • 如果是为了数据可视化,可以降到1维(线),2维(平面),或者3维(立体)。
  • 如果是为了建立预测模型而降维,比较常用的方法是看多少个主成分解释了多少百分比的方差,常用的比如说99%,95%,90%。
  • 另一个方法是Kaiser's Rule,保留所有奇异值大于1的
  • 还有个类似elbow method的方法,画出主成分的个数和解释方差百分比的曲线,找出手肘的那个点。


batmanX   2017-06-06 11:13



  相关主题

除了PCA,还有什么降维的方法?   10回答

PCA降维中的特征值和特征向量   2回答

PCA降维之前为什么要先标准化?   2回答

PCA会降低分类器的精度吗?   3回答

sklearn.decomposition.PCA方法中fit, fit_transform, transform应该怎么用   1回答

为什么PCA被称作非监督式学习?   2回答

在使用PCA降维时,有哪些坑?   6回答

PCA的目标函数   1回答

PCA和SVD是一回事吗?   1回答

t-SNE如何实现降维?   1回答

线性回归或者逻辑回归中常提到的AIC和BIC是什么意思?   1回答

python里怎么实现t-SNE降维?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!