标准误和标准差有什么区别?

  统计/机器学习 描述性统计    浏览次数: 1409
1
它们有什么区别?
 

MeganC   2017-04-13 23:15



   1个回答 
2

标准差(Standard Deviation)描述总体或者样本中数据的分散程度。

标准误(Standard Error)就是某个样本统计量的标准差。换句话,可以认为描述估计值和真实值的偏差程度。

比如说,你有一个样本(1,8,5,3,6,7,4,5,4,6)。

这个样本的标准差$\sigma=2.025$。

现在你要根据这个样本来估计总体的均值,均值的点估计是4.9。那么怎么衡量这个估计值和真实值的偏差程度呢?我们就需要用到标准误。因为这个样本的标准差是2.025,样本数量是10,那么标准误就是

$$SE=\frac{\sigma}{\sqrt{n}}=\frac{2.025}{\sqrt{10}}=0.6403.$$



SofaSofa数据科学社区 DS面经 问答 实战

高代兄   2017-04-14 08:42



  相关主题

估计标准差的标准差?   1回答

Median Absolute Deviation的定义是什么?   1回答

统计里的IQR是什么意思?   2回答

为什么样本方差是除以n-1   4回答

python中百分位数的逆运算   1回答

用python计算协方差   1回答

python里计算百分位数   2回答

EDA一般包括哪些步骤?   2回答

如何向没有统计知识背景的人解释“什么是标准差”?   1回答

关于方差膨胀因子(VIF)的问题   2回答

线性回归的容忍度Tolerance是什么意思?   1回答

怎么理解库克距离(Cook's distance)?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!