cross entropy是什么意思?

  统计/机器学习 监督式学习 损失函数    浏览次数:2320        分享
1

cross entropy是什么意思?


 

ggg818   2017-11-27 11:13



   1个回答 
3

entropy是用于表示二元分类器的误差,而cross entropy则用于表示多元分类器的误差。

对于一个用$n$的测试样本的$k$元分类器,那么cross entropy的计算公式如下:

$$CrossEntropy=-\frac{1}{n}\sum_{i=1}^n \sum_{j=1}^ky_{i,j}\log p_{i,j}$$

比如一个三元分类问题,有两个测试样本,第一个样本:

预测出来的概率为$(0.5, 0.3, 0.2)$,实际标签为$2$,写成one-hot的形式是$(0,1,0)$;

第二个样本:

预测出来概率为$(0.6, 0.1, 0.3)$,实际标签为$1$,one-hot的形式为$(1, 0, 0)$

那么cross-entropy为

$$-\frac{1}{2}(1\times \log(0.3)+ 1\times\log(0.6))$$


SofaSofa数据科学社区DS面试题库 DS面经

abuu   2017-12-13 10:36



  相关主题

离散随机变量的熵满足的不等式如何证明?   1回答

最小描述长度和香农熵有什么关系?   0回答

Gini指数、Gini系数、Gini不纯是一回事吗?   2回答

softmax模型和最大熵模型是否是一回事?   1回答

python里怎么计算一个数组的熵(entropy)?   1回答

pytorch 的交叉熵损失总是报错,同样的结构改成MSELoss就没有问题   1回答

求问:Cart分类树为什么是基尼指数最小化准则   1回答

决策树的熵是什么?怎么用熵来选分叉?   1回答

为什么决策树中用熵而不是基尼不纯度来作为划分依据?   2回答

keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?   1回答

Hamming Loss汉明损失的计算公式是什么?   1回答

关于损失函数h(x), J(x), cost的概念问题   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!