求问:Cart分类树为什么是基尼指数最小化准则

  统计/机器学习 监督式学习    浏览次数: 334
0

cart分类树用基尼指数最小选特征,基尼类似熵概念(值越大不确定性越高),那在选择最初点时,不就该选这种包含信息多的特征作为起始点吗? 可是书里写的是最小原则? 实在不解,求大神解读

 

jd910910   2018-06-26 11:59



   1个回答 
2

你这里指的gini指数一般叫做gini不纯。

gini impurity越小,说明这个分叉的结果越纯净,所以就是选小的。

参考问题Gini指数、Gini系数、Gini不纯是一回事吗?

SofaSofa数据科学社区 DS面经 问答 实战

abuu   2018-06-26 12:34

明白了 谢谢 - jd910910   2018-06-26 13:44


  相关主题

随机森林是如何计算测试样本的概率的?   1回答

关于knn算法中kd树的问题   1回答

决策树剪枝有什么策略或者注意事项?   2回答

决策树的深度和数据特征个数的关系   1回答

决策树可以做多元分类吗?   1回答

决策树怎么做增量学习或者online学习?   1回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答

Extra Tree算法   1回答

决策树算法ID3,C4.5和CART的特点、异同?   3回答

随机森林中增加树的数量对于偏差和方差的影响   2回答

Adaboost里的树有没有可能权重是负数?   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!