求问:Cart分类树为什么是基尼指数最小化准则

  统计/机器学习 监督式学习    浏览次数: 93
0

cart分类树用基尼指数最小选特征,基尼类似熵概念(值越大不确定性越高),那在选择最初点时,不就该选这种包含信息多的特征作为起始点吗? 可是书里写的是最小原则? 实在不解,求大神解读

 

jd910910   2018-06-26 11:59



   1个回答 
2

你这里指的gini指数一般叫做gini不纯。

gini impurity越小,说明这个分叉的结果越纯净,所以就是选小的。

参考问题Gini指数、Gini系数、Gini不纯是一回事吗?

abuu   2018-06-26 12:34

明白了 谢谢 - jd910910   2018-06-26 13:44


  相关主题

决策树的深度和数据特征个数的关系   1回答

随机森林(random forest)和支持向量机(SVM)各有什么优劣   1回答

剪枝是什么意思   1回答

决策树剪枝有什么策略或者注意事项?   2回答

决策树的熵是什么?怎么用熵来选分叉?   1回答

决策树怎么做增量学习或者online学习?   1回答

决策树可以做多元分类吗?   1回答

Extra Tree算法   1回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答

决策树算法ID3,C4.5和CART的特点、异同?   3回答

Adaboost里的树有没有可能权重是负数?   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!