利用PCA降维,降到几维比较合适?

  统计/机器学习 数据降维 特征选择    浏览次数:12826        分享
2

当数据特征多的时候,我们可以用PCA降维,一般降到几维比较合适?

 

开门呀是我   2017-06-03 13:37



   1个回答 
5
  • 如果是为了数据可视化,可以降到1维(线),2维(平面),或者3维(立体)。
  • 如果是为了建立预测模型而降维,比较常用的方法是看多少个主成分解释了多少百分比的方差,常用的比如说99%,95%,90%。
  • 另一个方法是Kaiser's Rule,保留所有奇异值大于1的
  • 还有个类似elbow method的方法,画出主成分的个数和解释方差百分比的曲线,找出手肘的那个点。


SofaSofa数据科学社区DS面试题库 DS面经

batmanX   2017-06-06 11:13



  相关讨论

除了PCA,还有什么降维的方法?

PCA降维中的特征值和特征向量

一个关于PCA与eigenvector的问题

用pca对数据集降维时为什么一定要训练集和测试集?

Truncated SVD和PCA有什么区别吗?

PCA降维之前为什么要先标准化?

PCA会降低分类器的精度吗?

主成分分析法(PCA)算是黑盒算法吗?

PCA算法是一种保距算法吗?

sklearn pca 数据降维结果不一致

  随便看看

如何在numpy array尾部增加一行

huber loss是什么?什么时候用?

sklearn训练classifier的时候报错Unknown label type

seaborn.distplot直方图的y轴的数值是什么意思?

Python的Jupyter Notebook环境下怎么制作一个动态显示的进度条?