Probabilidad Y Estadistica

Si buscas hosting web, dominios web, correos empresariales o crear páginas web gratis, ingresa a PaginaMX
Por otro lado, si buscas crear códigos qr online ingresa al Creador de Códigos QR más potente que existe


Varianza y desviacion estandar.


Varianza.

En teoría de probabilidad, la varianza o coeficiente de variación (que suele representarse como σ2) de una variable aleatoria es una medida de su dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.

 

Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La desviación estándar, la raíz cuadrada de la varianza, es una medida de dispersión alternativa expresada en las mismas unidades.

 

Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y se desaconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más robustas.

 

El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 titulado The Correlation Between Relatives on the Supposition of Mendelian Inheritance.


Definición

 

Dada una variable aleatoria X con media μ = E(X), se define su varianza, Var(X) (también representada como scriptstylesigma_X^2 o, simplemente σ2), como

 
operatorname{Var}(X) = operatorname{E}[ ( X - mu ) ^ 2].,
 

Desarrollando la definición anterior, se obtiene la siguiente definición alternativa (y equivalente):

 
begin{align}
operatorname{Var}(X) & = operatorname{E}[ ( X - mu ) ^ 2 ] 
& = operatorname{E}[ ( X ^ 2 - 2Xmu + mu ^ 2) ] 
& = operatorname{E}( X ^ 2) - 2muoperatorname{E}(X) + mu ^ 2 
& =operatorname{E}( X ^ 2) - 2mu ^ 2 + mu ^ 2 
& = operatorname{E} ( X ^ 2) - mu ^ 2.
end{align}
 

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 < k ≤ 2.

 

Caso continuo

 

Si la variable aleatoria X es continua con función de densidad f(x), entonces

 
operatorname{Var}(X) =int (x-mu)^2 , f(x) , dx,,
 

donde

 
mu = int x , f(x) , dx,,
 

y las integrales están definidas sobre el rango de X.

 

Caso discreto

 

Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn, entonces

 
operatorname{Var}(X) = sum_{i=1}^n (x_i - mu)^2 p_i,



Desviación estandar.

La desviación estándar o desviación típica (σ) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva.

 

Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.

 

Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que representan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad a la hora de describirlos e interpretarlos para la toma de decisiones.



Formulación

La varianza representa la media aritmética de las desviaciones con respecto a la media que son elevadas al cuadrado.

 

Si atendemos a la colección completa de datos (la población en su totalidad) obtenemos la varianza poblacional; y si por el contrario prestamos atención sólo a una muestra de la población, obtenemos en su lugar la varianza muestral. Las expresiones de estas medidas son las que aparecen a continuación.

 

Expresión de la varianza muestral:

 
 {S_X^2} = frac{ sumlimits_{i=1}^n left( X_i - overline{X} right) ^ 2 }{n}
 

Segunda forma de calcular la varianza muestral:

 
 {S_X^2} = frac{ sumlimits_{i=1}^n X_i^2}{n} - overline{X}^2
 

demostración

 
 frac{ sumlimits_{i=1}^n left( X_i - overline{X} right) ^ 2 }{n} = 
frac{ sumlimits_{i=1}^n (X_i^2 + overline{X}^2 -2X_i overline{X})}{n} =
frac{ sumlimits_{i=1}^n X_i^2 }{n} + frac{ sumlimits_{i=1}^n overline{X}^2 }{n} - frac{ sumlimits_{i=1}^n 2X_i overline{X}}{n} = 
frac{ sumlimits_{i=1}^n X_i^2 }{n} + frac{ overline{X}^2 sumlimits_{i=1}^n 1 }{n} - frac{ 2 overline{X} sumlimits_{i=1}^n X_i  }{n}
 

podemos observar que como

 
 frac{ sumlimits_{i=1}^n 1 }{n} = 1 (sumamos n veces 1 y luego dividimos por n)
 

y como

 
 frac{ sumlimits_{i=1}^n X_i  }{n} = overline{X}
 

obtenemos

 
 frac{ sumlimits_{i=1}^n X_i^2 }{n} + overline{X}^2 - 2 overline{X} overline{X} =
 frac{ sumlimits_{i=1}^n X_i^2}{n} - overline{X}^2
 

Expresión de la cuasivarianza muestral (estimador insesgado de la varianza poblacional):

 
 {S_X^2} = frac{ sumlimits_{i=1}^n left( X_i - overline{X} right) ^ 2 }{n-1}
 

Expresión de la varianza poblacional:

 
 {sigma^2} = frac{ sumlimits_{i=1}^N left( X_i - {mu} right) ^ 2 }{N}
 

donde μ es el valor medio de {Xi}

 


Expresión de la desviación estándar poblacional:

 
 sqrt{{sigma^2}} =sqrt{{frac{ sumlimits_{i=1}^N left( X_i - {mu} right) ^ 2 }{N}}}
 

El término desviación estándar fue incorporado a la estadística por Karl Pearson en 1894.

 

Por la formulación de la varianza podemos pasar a obtener la desviación estándar, tomando la raíz cuadrada positiva de la varianza. Así, si efectuamos la raíz de la varianza muestral, obtenemos la desviación típica muestral; y si por el contrario, efectuamos la raíz sobre la varianza poblacional, obtendremos la desviación típica poblacional.

 


 

Expresión de la desviación estándar muestral:

 
 sqrt{s^2} =sqrt{{ frac{ sumlimits_{i=1}^n left( x_i - overline{x} right) ^ 2 }{n-1}}}
 

También puede ser tomada como

 
S = sqrt{frac{a-s^2/n}{n-1}}
 

con a como sum_{i=1}^n x_i^2 y s como sum_{i=1}^n x_i además se puede tener una mejor tendencia de medida al desarrollar las formulas indicadas pero se tiene que tener en cuenta la media, mediana y moda

 

Interpretación y aplicación

 

La desviación estándar es una medida del grado de dispersión de los datos con respecto al valor promedio. Dicho de otra manera, la desviación estándar es simplemente el "promedio" o variación esperada con respecto a la media aritmética.

 

Por ejemplo, las tres muestras (0, 0, 14, 14), (0, 6, 8, 14) y (6, 6, 8, 8) cada una tiene una media de 7. Sus desviaciones estándar muestrales son 8,08, 5,77 y 1,33, respectivamente. La tercera muestra tiene una desviación mucho menor que las otras dos porque sus valores están más cerca de 7.

 

La desviación estándar puede ser interpretada como una medida de incertidumbre. La desviación estándar de un grupo repetido de medidas nos da la precisión de éstas. Cuando se va a determinar si un grupo de medidas está de acuerdo con el modelo teórico, la desviación estándar de esas medidas es de vital importancia: si la media de las medidas está demasiado alejada de la predicción (con la distancia medida en desviaciones estándar), entonces consideramos que las medidas contradicen la teoría. Esto es coherente, ya que las mediciones caen fuera del rango de valores en el cual sería razonable esperar que ocurrieran si el modelo teórico fuera correcto. La desviación estándar es uno de tres parámetros de ubicación central; muestra la agrupación de los datos alrededor de un valor central (la media o promedio).

 

  Desglose

 

La desviación estándar (DS/DE), también llamada desviación típica, es una medida de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores concretos del promedio en una distribución. De hecho, específicamente, la desviación estándar es "el promedio de la distancia de cada punto respecto del promedio". Se suele representar por una S o con la letra sigma, sigma^{}_{}.

 

La desviación estándar de un conjunto de datos es una medida de cuánto se desvían los datos de su media. Esta medida es más estable que el recorrido y toma en consideración el valor de cada dato.

 

Es posible calcular la desviación estándar de una variable aleatoria continua como la raíz cuadrada de la integral

 
{sigma}^2 = int_{-infty}^infty {(x - mu)}^2 f(x) dx
 

donde

 
mu = int_{-infty}^infty x f(x) dx
 
  • La DS es la raíz cuadrada de la varianza de la distribución
 
sigma^2 = lim_{n to infty} frac{1}{n} sum_{i=1}^n
 left( x_i - overline{x} right) ^ 2
 

Así la varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución.

 

Aunque esta fórmula es correcta, en la práctica interesa realizar inferencias poblacionales, por lo que en el denominador en vez de n, se usa n-1 (Corrección de Bessel)

 
s^2 = frac{ sum_{i=1}^n left( x_i - overline{x} right) ^ 2 }{n-1}
 

También hay otra función más sencilla de realizar y con menos riesgo de tener equivocaciones :

 
s^2 = frac{ sum_{i=1}^n x_i^2 - noverline{x}^2}{n-1}

© 2025 Probabilidad Y Estadistica

201677