当数据特征多的时候,我们可以用PCA降维,一般降到几维比较合适?
1个回答
- 如果是为了数据可视化,可以降到1维(线),2维(平面),或者3维(立体)。
- 如果是为了建立预测模型而降维,比较常用的方法是看多少个主成分解释了多少百分比的方差,常用的比如说99%,95%,90%。
- 另一个方法是Kaiser's Rule,保留所有奇异值大于1的
- 还有个类似elbow method的方法,画出主成分的个数和解释方差百分比的曲线,找出手肘的那个点。
相关主题
除了PCA,还有什么降维的方法?
9回答
PCA降维中的特征值和特征向量
2回答
sklearn.decomposition.PCA方法中fit, fit_transform, transform应该怎么用
1回答
PCA降维之前为什么要先标准化?
2回答
为什么PCA被称作非监督式学习?
2回答
在使用PCA降维时,有哪些坑?
6回答
PCA的目标函数
1回答
PCA和SVD是一回事吗?
1回答
t-SNE如何实现降维?
1回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!