Unidad 5.
Variables aleatorias
multidimensionales.
Parte I. Variables aleatorias
bidimensionales discretas.
Variables aleatorias bidimensionales discretas
Sean 𝑋 e 𝑌 dos variables aleatorias discretas definidas en el espacio muestral 𝑆 de un
experimento. La distribución de probabilidad conjunta 𝑝𝑋,𝑌 (𝑥, 𝑦) se define para cada par
de números 𝑥, 𝑦 mediante:
𝑝𝑋,𝑌 𝑥, 𝑦 = 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦)
Sea 𝐴 cualquier conjunto que consiste en pares de valores 𝑥, 𝑦 . Entonces la
probabilidad 𝑃 𝑥, 𝑦 ∈ 𝐴 se obtiene al sumar la distribución de probabilidad conjunta
en los pares de 𝐴:
𝑃 𝑥, 𝑦 ∈ 𝐴 = 𝑝𝑋,𝑌 𝑥, 𝑦
𝑥,𝑦 ∈𝐴
Una función 𝑝𝑋,𝑌 𝑥, 𝑦 es una distribución de probabilidad conjunta de las variables
aleatorias 𝑋 e 𝑌 si:
1. 𝑝𝑋,𝑌 𝑥, 𝑦 ≥ 0 para todo par (𝑥, 𝑦),
2. 𝑥 𝑦 𝑝𝑋,𝑌 𝑥, 𝑦 = 1
3. 𝑃 𝑋 = 𝑥 , 𝑌 = 𝑦 = 𝑝𝑋,𝑌 𝑥, 𝑦
2
Probabilidad y Estadística – FRH-UTN Unidad 5
Esperanza matemática:
𝐸𝑋 = 𝑥 . 𝑝𝑋,𝑌 𝑥, 𝑦 = 𝑥𝑝𝑋 𝑥
𝑥 𝑦 𝑥
𝐸𝑌 = 𝑦 . 𝑝𝑋,𝑌 𝑥, 𝑦 = 𝑦𝑝𝑌 𝑦
𝑦 𝑥 𝑦
De forma más general:
𝐸 ℎ(𝑋, 𝑌) = ℎ 𝑥, 𝑦 . 𝑝𝑋,𝑌 𝑥, 𝑦
𝑥 𝑦
Por ejemplo, si ℎ 𝑋, 𝑌 = 𝑋. 𝑌, entonces:
2 2
𝐸 𝑋. 𝑌 = 𝑥. 𝑦. 𝑝𝑋,𝑌 𝑥, 𝑦
𝑥=0 𝑦=0
3
Probabilidad y Estadística – FRH-UTN Unidad 5
Distribuciones marginales
Cuando las variables aleatorias son discretas, las distribuciones marginales de X y de Y,
representadas por 𝑝𝑋 𝑥 y 𝑝𝑌 𝑦 respectivamente, están dadas por:
Distribución marginal de 𝑋, se obtiene al sumar 𝑝𝑋,𝑌 𝑥, 𝑦 sobre los valores de 𝑌:
𝑝𝑋 𝑥 = 𝑦 𝑝𝑋,𝑌 𝑥, 𝑦
Distribución marginal de 𝑌, se obtiene al sumar 𝑝𝑋,𝑌 𝑥, 𝑦 sobre los valores de 𝑋:
𝑝𝑌 𝑦 = 𝑥 𝑝𝑋,𝑌 𝑥, 𝑦
En el caso de nuestro ejemplo, la distribución marginal de Y sería la siguiente:
4
Probabilidad y Estadística – FRH-UTN Unidad 5
Distribuciones condicionales
Como ya vimos anteriormente, la definición de probabilidad condicional es:
𝑃(𝐴 ∩ 𝐵)
𝑃 𝐴\𝐵 = , 𝑃 𝐵 >0
𝑃(𝐵)
Si 𝐴 y 𝐵 son eventos definidos por 𝑋 = 𝑥 e 𝑌 = 𝑦, respectivamente, entonces:
𝑃 𝑋 = 𝑥, 𝑌 = 𝑦
𝑃 𝑌 = 𝑦\𝑋 = 𝑥 =
𝑃 𝑋=𝑥
Sean 𝑋 e 𝑌 dos variables aleatorias discretas con distribución de probabilidad conjunta
𝑝𝑋,𝑌 𝑥, 𝑦 y distribución de probabilidad marginal de 𝑋 𝑝𝑋 𝑥 > 0 , entonces la
distribución condicional de 𝑌 dado que 𝑋 = 𝑥 es:
𝑝𝑋,𝑌 𝑥, 𝑦
𝑃 𝑌 = 𝑦\𝑋 = 𝑥 = , 𝑝𝑋 𝑥 > 0
𝑝𝑋 𝑥
Además, si la distribución de probabilidad marginal de 𝑌 𝑝𝑌 𝑦 > 0, entonces la
distribución condicional de 𝑋 dado que 𝑌 = 𝑦 es:
𝑝𝑋,𝑌 𝑥, 𝑦
𝑃 𝑋 = 𝑥\𝑌 = 𝑦 = , 𝑝𝑌 𝑦 > 0
𝑝𝑌 𝑦
5
Probabilidad y Estadística – FRH-UTN Unidad 5
Variables aleatorias independientes
Sean 𝑋 e 𝑌 dos variables aleatorias discretas con distribución de probabilidad conjunta
𝑝𝑋,𝑌 𝑥, 𝑦 y distribución de probabilidad marginal de 𝑋: 𝑝𝑋 𝑥 y distribución de
probabilidad marginal de 𝑌: 𝑝𝑌 𝑦 . Se dice que las dos variables aleatorias son
estadísticamente independientes si:
𝑝𝑋,𝑌 𝑥, 𝑦 = 𝑝𝑋 𝑥 . 𝑝𝑌 𝑦 ⩝ 𝑥, 𝑦
Si se puede encontrar algún par 𝑥, 𝑦 para el que 𝑝𝑋,𝑌 𝑥, 𝑦 ≠ 𝑝𝑋 𝑥 . 𝑝𝑌 𝑦 , las
variables aleatorias 𝑋 e 𝑌 no son estadísticamente independientes.
¡Hay que verificarlo para todos los pares ordenados!
Generalizado al caso de 𝑛 variables aleatorias discretas: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 𝑛 variables
aleatorias discretas con distribución de probabilidad conjunta 𝑝𝑋1,𝑋2,…,𝑋𝑛 𝑥1 , 𝑥2 , … , 𝑥𝑛 y
distribución de probabilidad marginales de 𝑋1 , 𝑋2 , … , 𝑋𝑛 . Se dice que las variables
aleatorias son estadísticamente independientes si para toda n-tupla de valores
𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 dentro de sus rangos se cumple que, en el caso discreto:
𝑝𝑋1,𝑋2,…,𝑋𝑛 𝑥1 , 𝑥2 , … , 𝑥𝑛 = 𝑝𝑋1 𝑥1 . 𝑝𝑋2 𝑥2 . … . 𝑝𝑋𝑛 𝑥𝑛
6
Probabilidad y Estadística – FRH-UTN Unidad 5
Covarianza
La covarianza entre dos variables aleatorias es una medida de la naturaleza de la
asociación lineal entre ambas. Las unidades de la covarianza corresponden al producto
de las unidades de las variables. Sean 𝑋 e 𝑌 variables aleatorias discretas con
distribución de probabilidad conjunta 𝑝𝑋,𝑌 𝑥, 𝑦 . La covarianza de 𝑋 e 𝑌 es:
𝜎𝑋𝑌 = 𝐸 𝑋 − 𝜇𝑋 . 𝑌 − 𝜇𝑌 = 𝑥 − 𝜇𝑋 . 𝑦 − 𝜇𝑌 . 𝑝𝑋,𝑌 𝑥, 𝑦
𝑥 𝑦
La covarianza de dos variables aleatorias 𝑋 e 𝑌 puede calcularse también con la
siguiente fórmula alternativa:
𝜎𝑋𝑌 = 𝐸 𝑋. 𝑌 − 𝐸 𝑋 . 𝐸 𝑌
Donde 𝐸 𝑋 = 𝜇𝑋 y 𝐸 𝑌 = 𝜇𝑌 .
El signo de la covarianza indica si la relación lineal entre las dos variables aleatorias es
directa (si es positiva) o indirecta (si es negativa). Si la covarianza es exactamente igual a
cero, entonces las variables son linealmente independientes.
Si X e Y son estadísticamente independientes 𝑪𝑶𝑽 𝑿, 𝒀 = 𝟎
Pero 𝑪𝑶𝑽 𝑿, 𝒀 = 𝟎 NO IMPLICA INDEPENDENCIA ESTADÍSTICA.
7
Probabilidad y Estadística – FRH-UTN Unidad 5
Correlación
La covarianza entre dos variables aleatorias nos da información respecto de la naturaleza
de la relación lineal, pero la magnitud de la covarianza no nos indica nada respecto a la
fuerza de la relación lineal, ya que la covarianza depende de la escala en la que estén
medidas las variables aleatorias.
El coeficiente de correlación es una medida libre de escala, independiente de las
unidades de 𝑋 y de 𝑌, es decir, es adimensional.
Sean 𝑋 e 𝑌 variables aleatorias con covarianza 𝜎𝑋𝑌 y desviación estándar 𝜎𝑋 y 𝜎𝑌 ,
respectivamente. El coeficiente de correlación entre 𝑋 e 𝑌 es:
𝜎𝑋𝑌
𝜌𝑋𝑌 =
𝜎𝑋 . 𝜎𝑦
El coeficiente de correlación satisface la desigualdad −1 ≤ 𝜌𝑋𝑌 ≤ 1. Toma un valor igual
a cero cuando 𝜎𝑋𝑌 = 0. Cuando las variables presenten una relación lineal exacta y
directa: 𝜌𝑋𝑌 = 1 y cuando las variables presenten una relación lineal exacta indirecta,
𝜌𝑋𝑌 = −1.
8
Probabilidad y Estadística – FRH-UTN Unidad 5
Medias, varianzas y covarianzas de combinaciones lineales de variables aleatorias
Algunas propiedades de la esperanza:
𝐸 𝑎𝑋 + 𝑏 = 𝑎𝐸 𝑋 + 𝑏 con a y b constantes.
𝐸 𝑔(𝑋) ± ℎ(𝑌) = 𝐸 𝑔(𝑋) ± 𝐸 ℎ(𝑌)
𝐸 𝑔(𝑋, 𝑌) ± ℎ(𝑋, 𝑌) = 𝐸 𝑔(𝑋, 𝑌) ± 𝐸 ℎ(𝑋, 𝑌)
𝐸 𝑋. 𝑌 = 𝐸 𝑋 . 𝐸 𝑌 solo si X e Y son variables aleatorias independientes.
Algunas propiedades de la varianza:
𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋) con a y b constantes.
𝑉𝑎𝑟 𝑎𝑋 + 𝑏𝑌 = 𝑎2 𝑉𝑎𝑟 𝑋 + 𝑏2 𝑉𝑎𝑟 𝑌 + 2𝑎𝑏𝐶𝑜𝑣(𝑋, 𝑌) con a y b constantes.
𝑉𝑎𝑟 𝑎𝑋 ∓ 𝑏𝑌 = 𝑎2 𝑉𝑎𝑟 𝑋 + 𝑏2 𝑉𝑎𝑟 𝑌 , si 𝑋 e 𝑌 son variables aleatorias
independientes.
Si 𝑋1 , 𝑋2 , … , 𝑋𝑛 son variables aleatorias independientes, entonces,
𝑉𝑎𝑟 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ + 𝑎𝑛 𝑋𝑛 = 𝑎12 𝑉𝑎𝑟 𝑋1 + 𝑎22 𝑉𝑎𝑟 𝑋2 + ⋯ + 𝑎𝑛2 𝑉𝑎𝑟(𝑋𝑛 )
Algunas propiedades de la covarianza:
𝐶𝑜𝑣 𝑋, 𝑋 = 𝑉𝑎𝑟 𝑋
𝐶𝑜𝑣 𝑋, 𝑌 = 𝐶𝑜𝑣(𝑌, 𝑋)
𝐶𝑜𝑣 𝑋 + 𝑌, 𝑍 = 𝐶𝑜𝑣 𝑋, 𝑍 + 𝐶𝑜𝑣 𝑌, 𝑍
𝐶𝑜𝑣 𝑎𝑋, 𝑏𝑌 = 𝑎. 𝑏. 𝐶𝑜𝑣 𝑋, 𝑌
𝐶𝑜𝑣 𝑎 + 𝑋, 𝑌 = 𝐶𝑜𝑣 𝑋, 𝑌
𝐶𝑜𝑣 𝑎𝑋 + 𝑌, 𝑍 = 𝑎𝐶𝑜𝑣 𝑋, 𝑍 + 𝐶𝑜𝑣 𝑌, 𝑍
9
Probabilidad y Estadística – FRH-UTN Unidad 5
Unidad 5. Variables aleatorias
multidimensionales.
Parte II. Propiedad reproductiva de
la distribución normal.
Esperanza y varianza de una combinación lineal de n variables aleatorias
Dado un conjunto de 𝑛 variables aleatorias 𝑋1 , 𝑋2 , … , 𝑋𝑛 y 𝑛 constantes numéricas
𝑐1 , 𝑐2 , … , 𝑐𝑛 , la variable aleatoria
𝑛
𝑌 = 𝑐1 𝑋1 + 𝑐2 𝑋2 + ⋯ 𝑐𝑛 𝑋𝑛 = 𝑐𝑋𝑖
𝑖=1
Se llama combinación lineal de las 𝑋𝑖 .
Si 𝑋1 , 𝑋2 , … , 𝑋𝑛 tienen valores medios 𝜇1 , 𝜇2 , … , 𝜇𝑛 respectivamente y varianzas
𝜎12 , 𝜎22 , … , 𝜎𝑛2 , respectivamente, entonces:
𝐸 𝑐1 𝑋1 + 𝑐2 𝑋2 + ⋯ 𝑐𝑛 𝑋𝑛 = 𝑐1 𝐸(𝑋1 ) + 𝑐2 𝐸(𝑋2 ) + ⋯ 𝑐𝑛 𝐸(𝑋𝑛 )
= 𝑐1 𝜇1 + 𝑐2 𝜇2 + ⋯ 𝑐𝑛 𝜇𝑛 (1)
y además:
𝑛 𝑛
𝑉 𝑐1 𝑋1 + 𝑐2 𝑋2 + ⋯ 𝑐𝑛 𝑋𝑛 = 𝑐𝑖 𝑐𝑗 𝐶𝑜𝑣(𝑋𝑖 , 𝑋𝑗 ) ,
𝑖=1 𝑗=1
donde 𝑐𝑖 𝑐𝑖 𝐶𝑜𝑣 𝑋𝑖 , 𝑋𝑖 = 𝑐𝑖2 𝑉𝑎𝑟(𝑋𝑖 ).
11
Probabilidad y Estadística – FRH-UTN Unidad 5
Si 𝑋1 , 𝑋2 , … , 𝑋𝑛 son independientes:
𝑉 𝑐1 𝑋1 + 𝑐2 𝑋2 + ⋯ 𝑐𝑛 𝑋𝑛 = 𝑐12 𝑉(𝑋1 ) + 𝑐22 𝑉(𝑋2 ) + ⋯ + 𝑐𝑛2 𝑉(𝑋𝑛 )
= 𝑐12 𝜎12 + 𝑐22 𝜎22 + ⋯ + 𝑐𝑛2 𝜎𝑛2 (2)
y
𝜎𝑐1𝑋1+𝑐2𝑋2+⋯𝑐𝑛 𝑋𝑛 = 𝑐12 𝜎12 + 𝑐22 𝜎22 + ⋯ + 𝑐𝑛2 𝜎𝑛2
La varianza de una diferencia entre dos variables aleatorias independientes es la suma,
no la diferencia, de las dos varianzas:
𝑉 𝑋1 − 𝑋2 = 𝑉 𝑋1 + 𝑉(𝑋2 ) , siempre que 𝑋1 y 𝑋2 sean estadísticamente
independientes.
Siempre deben sumarse varianzas de variables aleatorias, NUNCA DESVÍOS, siendo el
desvío de la suma de variables aleatorias resultado de calcular la raíz cuadrada de la
suma de las varianzas, calculada previamente.
Por propiedad reproductiva de la distribución normal, si 𝑋1 , 𝑋2 , … , 𝑋𝑛 son variables
aleatorias normales independientes, entonces la suma de ellas, 𝑌, también sigue una
distribución normal, con valor esperado y varianza calculados en (1) y (2).
12
Probabilidad y Estadística – FRH-UTN Unidad 5
Como casos particulares para 𝐸 𝑋1 = 𝐸 𝑋2 = ⋯ = 𝐸 𝑋𝑛 = 𝜇 y varianzas
𝑉 𝑋1 = 𝑉 𝑋2 = ⋯ = 𝑉 𝑋𝑛 = 𝜎 2 ,
si 𝑐1 = 𝑐2 = ⋯ = 𝑐𝑛 = 1, se tiene 𝑇 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 , con TNormal
𝑋1 +𝑋2 +⋯+𝑋𝑛
Si 𝑐1 = 𝑐2 = ⋯ = 𝑐𝑛 = 1/𝑛, se tiene 𝑋 = , con 𝑋Normal
𝑛
Tanto 𝑇 como 𝑋 son estadísticos, cuya distribución estudiaremos a continuación.
13
Probabilidad y Estadística – FRH-UTN Unidad 5
Unidad 5. Variables aleatorias
multidimensionales.
Parte III. Distribuciones muestrales.
Teorema Central del Límite.
Distribución del muestreo y teorema central del límite.
La totalidad de las observaciones que nos interesan en nuestro análisis, ya sean de
número finito o infinito, constituyen lo que llamamos, en estadística, población. Una
muestra es un subconjunto de una población. Para que las inferencias que hacemos
sobre la población a partir de la muestra sean válidas, debemos obtener muestras que
sean representativas de la población que queremos estudiar. Es deseable elegir una
muestra aleatoria, lo cual significa que las observaciones se realicen en forma
independiente y al azar.
Definición: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de la variable aleatoria 𝑋, entonces
𝑋1 , 𝑋2 , … , 𝑋𝑛 son un conjunto de 𝑛 variables aleatorias independientes, cada una con la
misma distribución de probabilidad que la variable 𝑋.
Estadísticos y sus distribuciones
Definición: Cualquier función de las variables aleatorias que forman una muestra
aleatoria se llama estadístico. Un estadístico es cualquier cantidad cuyo valor puede ser
calculado a partir de datos muestrales. Antes de obtener los datos, existe incertidumbre
sobre qué valor de cualquier estadístico particular resultará. Por consiguiente, un
estadístico es una variable aleatoria.
15
Probabilidad y Estadística – FRH-UTN Unidad 5
Cualquier estadístico, por el hecho de ser una variable aleatoria, tiene una distribución
de probabilidad. La distribución de probabilidad de un estadístico se conoce como
distribución de muestreo para enfatizar que describe cómo varía el valor del estadístico
a través de todas las muestras que pudieran ser seleccionadas.
Distribución del estadístico media muestral
Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de una distribución con valor medio 𝜇 y
desviación estándar 𝜎. Entonces la variable 𝑋, definida como:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑋=
𝑛
Tendrá un valor esperado y una varianza iguales a:
1 1 1
𝐸 𝑋 = 𝜇𝑋 = 𝐸 . (𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ) = 𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 ) = 𝑛𝜇𝑋 = 𝜇𝑋
𝑛 𝑛 𝑛
2
1 1 1 𝜎𝑋
𝑉 𝑋 = 𝜎𝑋2 =𝑉 . (𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ) = 𝑉(𝑋1 ) + 𝑉(𝑋2 ) + ⋯ + 𝑉(𝑋𝑛 ) = 𝑛𝜎𝑋2 =
𝑛 𝑛2 𝑛 2 𝑛
𝜎𝑋
𝜎𝑋 = 𝑛
La distribución muestral de 𝑋 está centrada en la media de la población de la cual se
seleccionó la muestra. De acuerdo con la varianza, la distribución de 𝑋 se concentra más
en torno a 𝜇 a medida que se incrementa el tamaño de la muestra 𝑛.
16
Probabilidad y Estadística – FRH-UTN Unidad 5
Distribución del estadístico suma
Por otra parte, la variable suma (el total de la muestra) definida como:
𝑇𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 , tiene:
𝐸 𝑇𝑛 = 𝜇 𝑇 = 𝐸(𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ) = 𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 ) = 𝑛. 𝜇𝑋
𝑉 𝑇𝑛 = 𝜎𝑇2 = 𝑉 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = 𝑉(𝑋1 ) + 𝑉(𝑋2 ) + ⋯ + 𝑉(𝑋𝑛 ) = 𝑛. 𝜎𝑋2
𝜎𝑇 = 𝑛. 𝜎𝑋
La distribución de 𝑇𝑛 , en cambio, se dispersa más a medida que 𝑛 se incrementa.
17
Probabilidad y Estadística – FRH-UTN Unidad 5
Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de una distribución normal con valor medio 𝜇
y desviación estándar 𝜎. Entonces con cualquier 𝑛, 𝑋 está normalmente distribuida (con
media 𝜇 y desviación estándar 𝜎/ 𝑛), al igual que 𝑇𝑛 (con media 𝑛. 𝜇 y desviación
estándar 𝑛. 𝜎).
Cuando la distribución de la población es normal, la distribución de 𝑋 y 𝑇𝑛 también es
normal con cualquier tamaño de 𝑛.
Teorema central del límite: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria (v.i.i.d.) de una
distribución no normal, conocida o desconocida, con media 𝜇 y varianza 𝜎 2 . Entonces si
𝑛 es suficientemente grande, 𝑋 tiene aproximadamente una distribución normal con
2
𝜎𝑋
𝜇𝑋 = 𝜇𝑋 y 𝜎𝑋2 = 𝑛 , y 𝑇𝑛 también tiene aproximadamente una distribución normal con
𝜇 𝑇 = 𝑛. 𝜇𝑋 y 𝜎𝑇2 = 𝑛. 𝜎𝑋2 . Mientras más grande es el
valor de 𝑛 , mejor es la
aproximación. La regla empírica es que con 𝑛 ≥ 30 se puede utilizar el teorema central
del límite.
Luego, las probabilidades se obtienen simplemente estandarizando:
En el caso de la media muestral: En el caso de la variable suma:
𝑋−𝜇 𝑇𝑛 − 𝑛. 𝜇
𝑍=𝜎 𝑍=
𝑛 .𝜎
𝑛
18
Probabilidad y Estadística – FRH-UTN Unidad 5
Aproximación normal de una variable aleatoria binomial
El teorema central del límite puede ser utilizado para justificar la aproximación normal
de una variable aleatoria con distribución binomial.
Una variable aleatoria binomial 𝑆𝑛 con parámetros 𝑛 y 𝑝 se puede ver como la suma de
𝑛 variables aleatorias independientes con distribución Bernoulli, *𝑋1 , 𝑋2 , … , 𝑋𝑛 +, con
parámetro común 𝑝:
𝑆𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ; 𝐸 𝑋𝑖 = 𝑝; 𝑉 𝑋𝑖 = 𝑝 1 − 𝑝 𝐸 𝑆𝑛 = 𝑛𝑝; 𝑉 𝑆𝑛 = 𝑛𝑝(1 − 𝑝).
Si 𝑛 es lo suficientemente grande y el histograma de probabilidad binomial no está
demasiado sesgado ( 𝑛𝑝 ≥ 10 y 𝑛(1 − 𝑝) ≥ 10 ), entonces 𝑆𝑛 tiene distribución
aproximadamente normal con valor medio 𝑛𝑝 y varianza 𝑛𝑝(1 − 𝑝).
A los efectos prácticos, se considera la corrección de medio punto por pasar de una
distribución discreta a una continua, de modo que:
𝑎 + 0,5 − 𝑛𝑝
𝑃 𝑆𝑛 ≤ 𝑎 = 𝐵 𝑎; 𝑛, 𝑝 ≅ 𝑃 𝑆𝑛 ≤ 𝑎 + 0,5 = 𝑃 𝑍 ≤
𝑁𝑂𝑅. 𝑛𝑝 1 − 𝑝
𝑎 + 0,5 − 𝑛𝑝
=𝜙
𝑛𝑝 1 − 𝑝
19
Probabilidad y Estadística – FRH-UTN Unidad 5
𝑃 𝑎 ≤ 𝑆𝑛 ≤ 𝑏 ≅ 𝑃 𝑎 − 0,5 ≤ 𝑆𝑛 ≤ 𝑏 + 0,5 =
𝑁𝑂𝑅.
𝑏 + 0,5 − 𝑛𝑝 𝑎 − 0,5 − 𝑛𝑝
=𝜙 −𝜙
𝑛𝑝 1 − 𝑝 𝑛𝑝 1 − 𝑝
Corrección de medio punto gráficamente:
20
Probabilidad y Estadística – FRH-UTN Unidad 5