PCA需要正态性作为提前假设吗?

  统计/机器学习 概率分布 无监督学习 数据降维 开放问题    浏览次数: 75
0

在网上的一些文章里看到有提到,PCA需要正态性作为提前假设。这是为什么呢?

 

zzzz   2019-02-11 15:09



    还没有回答。我来答!  


  相关主题

Truncated SVD和PCA有什么区别吗?   1回答

PCA会降低分类器的精度吗?   3回答

利用PCA降维,降到几维比较合适?   1回答

PCA与非负矩阵分解(NMF)的异同?   0回答

PCA降维之前为什么要先标准化?   2回答

为什么PCA被称作非监督式学习?   2回答

PCA降维中的特征值和特征向量   2回答

PCA的目标函数   1回答

除了PCA,还有什么降维的方法?   11回答

PCA和SVD是一回事吗?   1回答

sklearn.decomposition.PCA方法中fit, fit_transform, transform应该怎么用   1回答

在使用PCA降维时,有哪些坑?   6回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!