Diferencia entre varianza y desviación estándar (con gráfico de comparación): diferencias clave

La dispersión indica hasta qué punto las observaciones se desvían de una medida apropiada de tendencia central. Las medidas de dispersión se dividen en dos categorías, es decir, una medida absoluta de dispersión y una medida relativa de dispersión. La varianza y la desviación estándar son dos tipos de una medida absoluta de variabilidad; que describe cómo se distribuyen las observaciones alrededor de la media. La varianza no es más que el promedio de los cuadrados de las desviaciones,

A diferencia, la desviación estándar es la raíz cuadrada del valor numérico obtenido al calcular la varianza. Mucha gente contrasta estos dos conceptos matemáticos. Por lo tanto, este artículo intenta arrojar luz sobre la importante diferencia entre la varianza y la desviación estándar.

Contenido: Varianza Vs Desviación estándar

  1. Gráfica comparativa
  2. Definición
  3. Diferencias clave
  4. Ilustración
  5. Similitudes
  6. Conclusión

Gráfica comparativa

Base para la comparaciónDiferenciaDesviación Estándar
SentidoLa varianza es un valor numérico que describe la variabilidad de las observaciones a partir de su media aritmética.La desviación estándar es una medida de la dispersión de las observaciones dentro de un conjunto de datos.
¿Qué es?Es el promedio de desviaciones cuadradas.Es la desviación cuadrática media de la raíz.
Etiquetado comoSigma cuadrado (σ ^ 2)Sigma (σ)
Expresado enUnidades cuadradasLas mismas unidades que los valores en el conjunto de datos.
IndicaQué tan lejos están los individuos de un grupo.Cuánto se diferencian las observaciones de un conjunto de datos de su media.

Definición de varianza

En estadística, la varianza se define como la medida de variabilidad que representa qué tan dispersos están los miembros de un grupo. Averigua el grado medio en el que cada observación varía de la media. Cuando la varianza de un conjunto de datos es pequeña, muestra la cercanía de los puntos de datos a la media, mientras que un mayor valor de varianza representa que las observaciones están muy dispersas alrededor de la media aritmética y entre sí.
Para datos no clasificados :

Para distribución de frecuencia agrupada :

Definición de desviación estándar

La desviación estándar es una medida que cuantifica la cantidad de dispersión de las observaciones en un conjunto de datos. La desviación estándar baja es un indicador de la cercanía de las puntuaciones a la media aritmética y representa una desviación estándar alta; las puntuaciones se encuentran dispersas en un rango más alto de valores.
Para datos no clasificados : Para distribución de frecuencia agrupada

Diferencias clave entre varianza y desviación estándar

La diferencia entre la desviación estándar y la varianza se puede dibujar claramente por los siguientes motivos:

  1. La varianza es un valor numérico que describe la variabilidad de las observaciones a partir de su media aritmética. La desviación estándar es una medida de la dispersión de las observaciones dentro de un conjunto de datos en relación con su media.
  2. La varianza no es más que un promedio de desviaciones cuadradas. Por otro lado, la desviación estándar es la desviación cuadrática media de la raíz.
  3. La varianza se indica mediante sigma cuadrado (σ 2 ), mientras que la desviación estándar se denomina sigma (σ).
  4. La varianza se expresa en unidades cuadradas que suelen ser más grandes que los valores del conjunto de datos dado. A diferencia de la desviación estándar, que se expresa en las mismas unidades que los valores del conjunto de datos.
  5. La varianza mide qué tan lejos se encuentran los individuos de un grupo en el conjunto de datos del promedio. Por el contrario, la desviación estándar mide cuánto se diferencian las observaciones de un conjunto de datos de su media.

Ilustración

Las calificaciones obtenidas por un estudiante en cinco materias son 60, 75, 46, 58 y 80 respectivamente. Tienes que averiguar la desviación estándar y la varianza.

En primer lugar, debe averiguar la media,

Entonces, las marcas promedio (medias) son 63.8

Ahora calcule la varianza

XA(xA)(XA) ^ 2
6063,8-3,814.44
7563,811,2125,44
4663,8-17,8316,84
5863,85.833,64
8063,816,2262,44

Donde, X = Observaciones

A = Media aritmética

Entonces la varianza es 150.56

Y la desviación estándar es –

Similitudes

  • Tanto la varianza como la desviación estándar son siempre positivas.
  • Si todas las observaciones en un conjunto de datos son idénticas, entonces la desviación estándar y la varianza serán cero.

Conclusión

Estos dos son términos estadísticos básicos, que están jugando un papel vital en diferentes sectores. Se prefiere la desviación estándar a la media, ya que se expresa en las mismas unidades que las de las mediciones, mientras que la varianza se expresa en unidades mayores que el conjunto de datos dado.

Diferencias relacionadas

  • Diferencia entre ADR y GDR
  • Diferencia entre ingresos, ganancias e ingresos
  • Diferencia entre Summon y Warrant
  • Diferencia entre orden de compra y orden de venta
  • Diferencia entre evidencia primaria y evidencia secundaria