1个回答
标准差(Standard Deviation)描述总体或者样本中数据的分散程度。
标准误(Standard Error)就是某个样本统计量的标准差。换句话,可以认为描述估计值和真实值的偏差程度。
比如说,你有一个样本(1,8,5,3,6,7,4,5,4,6)。
这个样本的标准差$\sigma=2.025$。
现在你要根据这个样本来估计总体的均值,均值的点估计是4.9。那么怎么衡量这个估计值和真实值的偏差程度呢?我们就需要用到标准误。因为这个样本的标准差是2.025,样本数量是10,那么标准误就是
$$SE=\frac{\sigma}{\sqrt{n}}=\frac{2.025}{\sqrt{10}}=0.6403.$$
相关主题
统计里的IQR是什么意思?
2回答
为什么样本方差是除以n-1
4回答
Median Absolute Deviation的定义是什么?
1回答
估计标准差的标准差?
1回答
为什么说中位数比平均数更稳健?
3回答
python里计算百分位数
2回答
python中百分位数的逆运算
1回答
EDA一般包括哪些步骤?
3回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!