深圳热线

标准偏差是什么意思?标准偏差的计算公式是什么?

2023-04-27 08:18:06 来源:MBA环球网

标准偏差是什么意思?

标准偏差(Std Dev,Standard Deviation)是统计学名词,也称为标准差,是指一种度量数据分布的分散程度之标准,用来衡量数据值偏离算术均值的程度。标准偏差越小的,这些值偏离均值就越少,反之亦然。标准偏差的大小可通过标准偏差与均值的倍率关系来衡量。

标准差也称均方差,是各数据偏离均数的距离的均数,它是离均差方和均后的方根。标准差是方差的算术方根。均数相同的,标准差未必相同,它可以反映均数不能反映出的东西(比如稳定度等)。标准差可以当作不确定的一种测量,例如在物理科学中,做重复测量时,测量数值集合的标准差代表这些测量的精确度。

标准偏差的计算公式是什么?

标准差公式是一种数学公式。标准差也被称为标准偏差,或者实验标准差,公式如下所示:

样本标准差=方差的算术方根=s=sqrt(((x1-x)^2 +(x2-x)^2 +......(xn-x)^2)/(n-1))

总体标准差=σ=sqrt(((x1-x)^2 +(x2-x)^2 +......(xn-x)^2)/n )

注解:上述两个标准差公式里的x为一组数(n个数据)的算术均值。当所有数(个数为n)概率地出现时(对应的n个概率数值和为1),则x为该组数的数学期望。

关键词: 标准偏差是什么意思 标准偏差的计算公

热门推荐