无监督学习(比如K Means)里怎么加正则项来防止过拟合

  统计/机器学习 无监督学习 模型验证 开放问题    浏览次数:8298        分享
2

有监督学习里,一般都是通过加正则项来防止过拟合。

那么无监督学习,比如K Means可以添加正则项防止过拟合吗?


 

麦克信条   2017-12-18 13:38



   3个回答 
9

对于K Means,比较常见的两种带正则项的目标函数就是AIC和BIC

正常的K Means的目标函数是

$$\sum_{i=1}^n\|X_i - C_i\|^2$$

其中$C_i$是点$X_i$所归属的中心点。

AIC是带正则项的目标函数

$$AIC=\sum_{i=1}^n\|X_i - C_i\|^2 + 2kd$$

其中$k$聚类的个数,$d$是数据的维数(特征的个数)

BIC是另一种带正则项的目标函数

$$BIC=\sum_{i=1}^n\|X_i - C_i\|^2 + \frac{1}{2}kd\log{n}$$

其中$n$是样本点的个数


SofaSofa数据科学社区DS面试题库 DS面经

Marvin_THU   2018-01-03 09:50

弱弱地问一下,AIC和BIC在sklearn里有现成的函数吗? - 有故事的董同学   2018-03-25 00:19
4

PCA也是可以在原来的损失函数的基础上再追加一个正则项。

比如,L2的正则项

比如L1的正则项

这个英文的博文讲pca这块挺清楚,有兴趣可以看看


SofaSofa数据科学社区DS面试题库 DS面经

飞翔钉子   2018-01-05 11:55

2

http://datamining.rutgers.edu/publication/internalmeasures.pdf

这篇论文里有很多评价clustering的标准,很多是加了对cluster数目的惩罚项。思想和前面提到的AIC差不多,不过更复杂。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2018-03-25 12:47



  相关讨论

L1范数回归与TV正则化哪个的回归效果更好?

L1正则化和L2正则化的区别?L1为啥具有稀疏性?

为什么正则项通常都是用L1或者L2,而不是其他的?

最小角回归是天然的LASSO化?正则化参数怎么体现?

如何理解“迭代步骤本身就是一个正则化的过程”

L0 norm 正则是什么意思?

正则项里的L1,L2是什么意思?

如何简单理解正则化

为什么很少用L0范数惩罚正则项?

Lasso和岭回归的正则项包含截距(常数项)吗?

  随便看看

假设检验中的p值是什么意思?为什么越小越好?

把tf.Tensor转换为numpy array

对于xgboost,还有必要做很多特征工程吗?

随机森林如何调参?

'numpy.ndarray' object has no attribute 'head'