[go: up one dir, main page]

0% encontró este documento útil (0 votos)
15 vistas24 páginas

Guion Tema1

Guion tema 1 estadistica y econometria UA
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
15 vistas24 páginas

Guion Tema1

Guion tema 1 estadistica y econometria UA
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 24

ESTADISTICA E INTRODUCCION A LA ECONOMETRIA

Departamento de Fundamentos del An·lisis EconÛmico


Universidad de Alicante.

GUI”N TEMA 1: MUESTREO Y


DISTRIBUCIONES MUESTRALES

1. Conceptos b·sicos sobre muestreo


BibliografÌa: Newbold et al., SecciÛn 6.1.

! øQuÈ es la Inferencia estadÌstica?


PodrÌa decirse que es el proceso que tiene como objetivo sacar conclusiones
sobre una poblaciÛn a partir de una muestra.
Es conveniente recordar la diferencia entre poblaciÛn y muestra:

ñ PoblaciÛn: conjunto de todos los objetos (individuos, hogares, empre-


sas, etc) al que se reÖere el estudio a realizar.
ñ Muestra: subconjunto de objetos de la poblaciÛn elegidos para el an·li-
sis.

! La EstadÌstica resuelve varios tipos de problemas y en funciÛn de los mismos


podemos distinguir:

ñ EstadÌstica descriptiva: øCÛmo recopilar, organizar y describir los datos


de interÈs?
ñ Probabilidad: øCÛmo construir un modelo matem·tico que explique los
datos de interÈs?
ñ Inferencia estadÌstica: øCÛmo usar los datos de interÈs y el modelo
estadÌstico para obtener conclusiones y tomar decisiones?

! Ejemplos
ESTADISTICA E INTRODUCCION A LA ECONOMETRIA
Departamento de Fundamentos del An·lisis EconÛmico
Universidad de Alicante.

GUI”N TEMA 1: MUESTREO Y


DISTRIBUCIONES MUESTRALES

1. Conceptos b·sicos sobre muestreo


BibliografÌa: Newbold et al., SecciÛn 6.1.

! øQuÈ es la Inferencia estadÌstica?


PodrÌa decirse que es el proceso que tiene como objetivo sacar conclusiones
sobre una poblaciÛn a partir de una muestra.
Es conveniente recordar la diferencia entre poblaciÛn y muestra:

ñ PoblaciÛn: conjunto de todos los objetos (individuos, hogares, empre-


sas, etc) al que se reÖere el estudio a realizar.
ñ Muestra: subconjunto de objetos de la poblaciÛn elegidos para el an·li-
sis.

! La EstadÌstica resuelve varios tipos de problemas y en funciÛn de los mismos


podemos distinguir:

ñ EstadÌstica descriptiva: øCÛmo recopilar, organizar y describir los datos


de interÈs?
ñ Probabilidad: øCÛmo construir un modelo matem·tico que explique los
datos de interÈs?
ñ Inferencia estadÌstica: øCÛmo usar los datos de interÈs y el modelo
estadÌstico para obtener conclusiones y tomar decisiones?

! Ejemplos
ñ El departamento de control de calidad de una empresa podrÌa querer
determinar si ha habido un descenso signiÖcativo de la calidad de su
producto entre las producciones de dos semanas consecutivas.
ñ Un asesor Önanciero podrÌa querer informar a su cliente si, a lo largo
del prÛximo aÒo, una inversiÛn en un fondo tendr· un rendimiento
esperado mayor o menor que una inversiÛn en el mercado monetario.
ñ Un profesor podrÌa estar interesado en saber si los resultados de los
estudiantes matriculados en distintos Grados en los que imparte clase
son signiÖcativamente distintos.

! Supongamos que queremos estudiar un rasgo o caracterÌstica especÌÖca de


cada uno de los objetos (individuos, hogares, empresas, etc) de una poblaciÛn,
a lo que llamamos Variable.
Generalmente usamos muestras y no la poblaciÛn ya que el coste y el tiempo
necesario para medir todos los elementos de la poblaciÛn serÌa enorme.
Cuando extraemos al azar una observaciÛn de la poblaciÛn para analizar la
variable de interÈs, podemos pensar que es una variable aleatoria con una
determinada distribuciÛn de probabilidad.
Antes de realizar la observaciÛn (a priori) hay incertidumbre y el resultado es
una variable aleatoria; despuÈs (a posteriori) sabemos el valor que ha tomado
la variable, y a ese valor lo llamamos realizaciÛn de la variable aleatoria.
Supongamos que queremos seleccionar una muestra de n objetos de una
poblaciÛn para analizar una variable de interÈs. øCÛmo lo hacemos?
Una muestra aleatoria simple (m.a.s.) es aquella en la que cada objeto
tiene la misma probabilidad de ser seleccionado y los objetos han sido se-
leccionados de manera independiente (es decir, la elecciÛn de un objeto no
cambia la probabilidad de elegir otro objeto).
Podemos pensar que los valores que la variable de interÈs toma en estos n
objetos seleccionados, son realizaciones de n variables aleatorias independi-
entes e idÈnticamente distribuidas, extraÌdas de una poblaciÛn inÖnita.
Diremos que las observaciones constituyen una muestra aleatoria simple.
Las muestras aleatorias simples son las ideales. No obstante, a veces no es
sencillo o es muy costoso conseguirlas. Para esos casos, existen otros tipos
de muestreo que no vamos a estudiar en este curso.

2
! øQuÈ es la distribuciÛn muestral?
Supongamos que queremos inferir algo acerca de un par·metro (la media)
poblacional. Por ejemplo, queremos saber si el salario anual medio de los
trabajadores espaÒoles es igual, mayor o menor que 20000 Euros.
Para ello, usaremos un estadÌstico (la media muestral) calculado a partir
de una muestra aleatoria. En nuestro ejemplo, con una muestra aleatoria
de trabajadores espaÒoles, calcularÌamos el salario medio.
Si el salario medio de la muestra fuese 21000 Euros, øpodrÌamos asegurar
que el salario anual medio de los trabajadores espaÒoles es mayor que 20000
Euros?
La respuesta es NO ya que, øquÈ pasarÌa si con otra muestra aleatoria
distinta de la anterior el salario medio hubiese sido 19000?
Es importante entender que la media muestral es una variable aleatoria. Y
por tanto, como tal, tendr· una funciÛn de distribuciÛn. Esa distribuciÛn
de probabilidad ser· su distribuciÛn muestral.
! Ejemplo 1:
Estamos interesados en la v.a. X= n˙mero de hijos menores de 18 aÒos que
viven en un hogar seleccionado al azar en una poblaciÛn grande. Supon-
dremos que sabemos que esta v.a. es discreta, con tres posibles valores 0; 1
y 2, siendo su funciÛn de probabilidad la siguiente:
fX (0) = 0:4
fX (1) = 0:5
fX (2) = 0:1
(Habitualmente no se tiene tanta informaciÛn sobre la v.a. que se quiere
estudiar).
Podemos calcular todas las caracterÌsticas poblacionales de X.
Su esperanza, que tambiÈn llamaremos media poblacional y que representare-
mos como &; resulta ser:
& = E(X) = 0 " 0:4 + 1 " 0:5 + 2 " 0:1 = 0:7 hijos

La varianza serÌa:
( 2 = E(X 2 ) # E(X)2 = 0:9 # 0:49 = 0:41 hijos2

3
p
La desviaciÛn tÌpica de X es ( = 0:41 = 0:64 hijos.
Un investigador, que desconoce las verdaderas probabilidades de cada uno de
los posibles resultados, quiere estudiar la variable X y para ello extrae una
m.a.s. de tamaÒo 2 de esta variable, es decir, examina el n˙mero de hijos
menores de 18 aÒos que viven en 2 hogares de la poblaciÛn seleccionados
aleatoriamente de modo independiente.
Representaremos la muestra como (X1 ; X2 ):
En total hay 32 = 9 resultados posibles para la muestra, que son: (0; 0);
(0; 1), (0; 2); (1; 0); (1; 1), (1; 2); (2; 0); (2; 1); (2; 2) (en cada par, el primer
n˙mero es el valor que puede tomar X1 y el segundo n˙mero es el valor que
puede tomar X2 ).
La probabilidad del primero de estos resultados es:

P (X1 = 0; X2 = 0) = P (X1 = 0)P (X2 = 0) = 0:4 " 0:4 = 0:16

An·logamente puede obtenerse la probabilidad de cada uno de los otros ocho


posibles resultados.
La tabla siguiente muestra la probabilidad de cada posible resultado de la
muestra:

(X1 ; X2 ) Probabilidad
(0; 0) 0:16
(0; 1) 0:20
(0; 2) 0:04
(1; 0) 0:20
(1; 1) 0:25
(1; 2) 0:05
(2; 0) 0:04
(2; 1) 0:05
(2; 2) 0:01

Supongamos ahora que el investigador est· interesado en la media pobla-


cional &; que para Èl es un valor desconocido.
El investigador aproxima este valor utilizando la media muestral, que en
este caso resulta ser:
X. = (X1 + X2 )=2

4
. es una variable
Puesto que X1 y X2 son variables aleatorias, tambiÈn X
aleatoria.
Nosotros, que conocemos la funciÛn de probabilidad de X1 y X2 , podemos
.
calcular la funciÛn de probabilidad de la v.a. X:
Para ello, en primer lugar completamos la tabla anterior en la que obtuvimos
las probabilidades de la muestra, incluyendo cu·l es en cada caso el resultado
que se obtiene para X .
La tabla que se obtiene es la siguiente:

(X1 ; X2 ) .
Probabilidad Media Muestral X
(0; 0) 0:16 0
(0; 1) 0:20 0:5
(0; 2) 0:04 1
(1; 0) 0:20 0:5
(1; 1) 0:25 1
(1; 2) 0:05 1:5
(2; 0) 0:04 1
(2; 1) 0:05 1:5
(2; 2) 0:01 2

. son 0; 0:5; 1; 1:5


De la tabla previa deducimos que los posibles valores de X
y 2:
La funciÛn de probabilidad de X. puede obtenerse sin m·s que examinar quÈ
casos llevan a cada uno de estos posibles resultados:

fX# (0) = 0:16


fX# (0:5) = 0:20 + 0:20 = 0:40
fX# (1) = 0:04 + 0:25 + 0:04 = 0:33
fX# (1:5) = 0:05 + 0:05 = 0:10
fX# (2) = 0:01

A partir de la funciÛn de probabilidad nosotros podemos deducir cualquier


. Por ejemplo:
caracterÌstica sobre la v.a. X:

5
. = 0 " 0:16 + 0:5 " 0:40 + : : : + 2 " 0:01 = 0:7 hijos
E(X)

. = E(X
V ar(X) . 2 ) # E(X)
. 2=

= (02 " 0:16 + 0:52 " 0:40 + : : : + 22 " 0:01) # 0:72 = 0:205 hijos2

ObsÈrvese que E(X) . = E(X); es decir, la esperanza de la v.a. media mues-


tral coincide con la esperanza de la v.a. X que queremos estudiar; como
veremos en el siguiente apartado, este resultado no es una casualidad.
øCÛmo cambian los resultados previos si consideramos una muestra de tamaÒo
3?
En este caso, en total hay 33 = 27 resultados posibles para la muestra. La
v.a. media muestral es ahora:
. = (X1 + X2 + X3 )=3
X

Los posibles valores de esta v.a. son:


1 2 4 5
0 1 2
3 3 3 3
Puede hacerse un estudio de esta v.a. siguiendo un razonamiento similar
al anterior, pero ahora los c·lculos son m·s largos porque hay muchos m·s
casos que considerar.
Y si tom·ramos una muestra de tamaÒo a˙n mayor, el razonamiento para
obtener la funciÛn de probabilidad para la v.a. media muestral serÌa similar,
aunque en la pr·ctica serÌa inviable llevarlo a cabo por la cantidad de c·lculos
requeridos.
En el ejemplo anterior hemos visto cÛmo calcular la distribuciÛn de la me-
dia muestral (y sus caracterÌsticas m·s importantes) cuando conocemos la
distribuciÛn de la v.a. X:
Como hemos visto, es un proceso complicado, y m·s a˙n lo serÌa si consid-
er·ramos la distribuciÛn de otras v.a. de interÈs, como la varianza muestral
o la mediana muestral.

6
Pero lo m·s importante es que, en la pr·ctica, nunca puede hacerse un
estudio similar al que hemos hecho en el ejemplo previo, porque nosotros no
conoceremos la distribuciÛn de X, pues es precisamente esta distribuciÛn (o
alguna caracterÌstica de ella) la que queremos estudiar.

! En los apartados siguientes no supondremos conocida la distribuciÛn de X


(sÛlo supondremos que las observaciones constituyen una muestra aleatoria
. y otras v.a.
simple), y estudiaremos quÈ propiedades estadÌsticas tienen X
construidas a partir de la muestra.

2. DistribuciÛn de la media muestral y teorema central del


lÌmite
BibliografÌa: Newbold et al., SecciÛn 6.2.

! En lo que resta de este tema nos centraremos en el estudio de la media


muestral y la varianza muestral como variables aleatorias.
Estas dos variables aleatorias constituyen los estimadores naturales de la
media poblacional y la varianza poblacional.
øPor quÈ nos centraremos exclusivamente en estas dos caracterÌsticas pobla-
cionales?

ñ Porque posiblemente son las dos caracterÌsticas m·s importantes para


resumir la informaciÛn de una variable.
ñ Porque cuando se consideran distribuciones normales (como suponemos
que son muchas de las v.a. de interÈs), una vez que se conocen la media
y la varianza de la variable se conoce la funciÛn de distribuciÛn y, por
tanto, se puede deducir cualquier otra informaciÛn de interÈs sobre la
variable.
ñ Porque desde el punto de vista matem·tico es mucho m·s sencillo el
estudio de cÛmo estimar la media y varianza poblacionales que el de
otras caracterÌsticas como la mediana o los cuartiles.

! Propiedades estadÌsticas de la media muestral


Conviene recordar las propiedades b·sicas de la esperanza:

7
Pn Pn
1. E( i=1 ai Xi + b) = i=1 ai E(Xi ) + b:
P Pn
2. Si fXi gni=1 son independientes, V ar( ni=1 ai Xi + b) = i=1 a2i V ar(Xi ):

! Supongamos que se dispone de una m.a.s. X1 ; X2 ; :::; Xn , es decir, de n vari-


ables aleatorias (v.a.) independientes e idÈnticamente distribuidas (i.i.d.)
con media & = E(Xi ) y varianza ( 2 = E [(Xi # &)2 ] = E(Xi2 ) # (E(Xi ))2 .
La media muestral viene dada por X . = 1 Pn Xi
n i=1

! La esperanza de la media muestral es la media poblacional, esto es


. =&
E(X)

DemostraciÛn:
!
1X 1X 1X
n n n
. =E n&
E(X) Xi = E(Xi ) = &= =&
n i=1 n i=1 n i=1 n

! La varianza de la media muestral es la varianza poblacional dividida entre


n, esto es
2
. =(
V ar(X)
n
DemostraciÛn:
!
1 Xn
1 X
n
1 X 2 n( 2
n
(2
. = V ar
V ar(X) Xi = 2 V ar(Xi ) = 2 ( = 2 =
n i=1 n i=1 n i=1 n n

ObsÈrvese que, conforme aumenta el tamaÒo muestral, menor es la varianza


de la media muestral.
Por tanto, si n es grande, X ser· un valor muy cercano a & = E(X), ya que
X tendr· como valor esperado & y una dispersiÛn muy pequeÒa alrededor
de este valor.

! Ejemplo 1 (ContinuaciÛn): Suponiendo conocida la funciÛn de probabilidad


de X; antes obtuvimos la funciÛn de probabilidad de la media muestral
. = (X1 +X2 )=2; y vimos que E(X)
construida con dos observaciones X . = 0:7
.
y que Var(X) = 0:205:

8
En realidad estas dos ˙ltimas igualdades podÌamos haberlas deducido sin
. utilizando los resultados de este
calcular la funciÛn de probabilidad de X;
apartado:
. = E(X) = 0:7
E(X)

. = V ar(X) = 0:41 = 0:205


V ar(X)
2 2
. = (X1 + X2 +
Y si consideramos la media muestral con tres observaciones X
X3 )=3, se tiene que:
. = E(X) = 0:7
E(X)

. = V ar(X) = 0:41 = 0:1367


V ar(X)
3 3
Para los procedimientos de inferencia estadÌstica que estudiaremos m·s ade-
lante, en ocasiones ser· necesario tener m·s informaciÛn sobre la v.a. X:
En concreto, nos preguntamos øes posible conocer la distribuciÛn de la media
muestral X obtenida con una m.a.s.?
Si no incorporamos supuestos adicionales, la respuesta es NO.
Sin embargo, un caso de interÈs en el que sÌ es posible conocer la distribuciÛn
de la media muestral X obtenida con una m.a.s., es cuando la distribuciÛn
de la v.a. X es normal.

! A continuaciÛn vamos a recordar quÈ quiere decir que una v.a. X tenga
distribuciÛn normal N (&; ( 2 ); y cuales son sus propiedades.
Sea X una v.a. con distribuciÛn normal N (&; ( 2 ).
Su funciÛn de densidad es la curva llamada campana de Gauss, centrada en
&:
Para calcular probabilidades sobre la distribuciÛn normal no hay que cal-
cular integrales puesto que las ·reas que indican cada probabilidad pueden
obtenerse utilizando diversos programas inform·ticos, por ejemplo, Gretl.
TambiÈn podemos usar Gretl para calcular la inversa de la funciÛn de dis-
tribuciÛn.

9
! El Gretl es un programa gratuito de f·cil manejo que se puede descargar de
la web: http://gretl.sourceforge.net/gretl_espanol.html
! Propiedad de ìlinealidadî de la distribuciÛn normal: X ' N (&; ( 2 ) )
aX + b ' N (a& + b; a2 ( 2 ); es decir, las transformaciones lineales de v.a.
normales siguen siendo v.a. normales.
Si X ' N (&; ( 2 ); entonces (X # &)=( tiene distribuciÛn N (0; 1); llamada
tambiÈn distribuciÛn normal est·ndar.
! Propiedad de ìcombinaciones linealesî de normales independientes: Si fXi gni=1
son v.a. independientesPcon Xi ' N (&i ; ( 2i ); y fci gni=1 son
Pn˙meros reales
n 2 n
cualesquiera,
Pn 2 2 entonces c X
i=1 i i ' N (&; ( ), siendo & = c &
i=1 i i y (2 =
i=1 ci ( i :

! Ejemplo 2:
Si X1 ; X2 son dos v.a. independientes con distribuciÛn N (1; 4) y N (#2; 9),
respectivamente, y consideramos
Y = 1 + 3X1 # 2X2
entonces Y es tambiÈn una v.a. con distribuciÛn normal, con media
E(Y ) = 1 + 3E(X1 ) # 2E(X2 ) = 1 + 3 " 1 # 2 " (#2) = 8
y varianza
V ar(Y ) = 32 " V ar(X1 ) + (#2)2 " V ar(X2 ) = 32 " 4 + (#2)2 " 9 = 72
Por lo tanto, su desviaciÛn tÌpica es 721=2 = 8:4853; luego:
Y ' N (8; 8:48532 )

! Una vez caracterizada la distribuciÛn de Y; podemos calcular cualquier


probabilidad sobre ella utilizando Gretl mediante la opciÛn Herramientas
)Buscador de valores p. Por ejemplo, la probabilidad de que Y sea menor
que 6 es:
P (Y < 6) = 0:4068
Dicha probabilidad puede calcularse considerando la v.a. tipiÖcada
Y #8
Z=
8:4853

10
cuya distribuciÛn es normal est·ndar,
% &
Y #8 6#8
P (Y < 6) = P < = P (Z < #0:2357) = 0:4068
8:4853 8:4853
TambiÈn podemos calcular el n˙mero real c que deja a su derecha una prob-
abilidad igual a 0:15. Este n˙mero c es el que satisface la condiciÛn:

P (Y > c) = 0:15

Esta condiciÛn es equivalente a:

P (Y ) c) = 0:85

Utilizando la opciÛn Herramientas )Tablas estadÌsticas en Gretl

! Por tanto, si llamamos F a la funciÛn de distribuciÛn de Y (es decir, F (x) =


P (Y ) x) para cualquier x), la ecuaciÛn anterior equivale a F (c) = 0:85;
luego:
c = F !1 (0:85) = 16:7944
Si tenemos una v.a. normal est·ndar, que solemos denotar por Z ' N (0; 1),
denotaremos por z% al n˙mero real que deja a su derecha una probabilidad
igual a 8. Este n˙mero es el que satisface la condiciÛn:

P (Z > z% ) = 8

Esta condiciÛn es equivalente a:

P (Z ) z% ) = 1 # 8

Utilizando la opciÛn Herramientas )Tablas estadÌsticas en Gretl podemos


calcular su valor. Por ejemplo, z0:025 = 1:96 y z0:05 = 1:645:

11
! Si tenemos una m.a.s.
' de (una v.a. X ' N (&; ( 2 ), entonces X es una v.a.
2 X!(
con distribuciÛn N &; 'n y q !2
' N (0; 1):
n

DemostraciÛn:
X. = 1 Pn Xi : Dado que X1 ; X2 ; :::; Xn son v.a. con distribuciÛn normal
n i=1
y son independientes, por las propiedades de ìlinealidadî de la distribuciÛn
normal y de ìcombinaciones linealesî de normales independientes tenemos
que:
% & % &
1X
n
n& n( 2 (2
Xi ' N ; = N &;
n i=1 n n2 n

! Ejemplo 3:
Se sabe que el peso (en gramos) de los tarros de cafÈ que envasa una
planta productora de alimentos sigue una distribuciÛn normal N (&; ( 2 ), y
se dispone de una muestra de n = 9 tarros.
Si suponemos que & = 250 y que ( 2 = 900, podemos calcular la prob-
abilidad) de que *el peso medio muestral sea inferior a 251. En este caso
X. ' N 250; 900 ; es decir, X
. ' N (250; 102 ); luego:
9

. < 251) = 0:5398


P (X

Esta probabilidad tambiÈn podrÌa haberse calculado utilizando la v.a. tipi-


Öcada Z = (X. # 250)=10; cuya distribuciÛn es normal est·ndar:
%. &
. X # 250 251 # 250
P (X < 251) = P < = P (Z < 0:1) = 0:5398
10 10

12
Supongamos ahora que no conocemos el valor de &; pero sÌ el de ( 2 = 900;
y queremos calcular: + +
P ( +X. # &+ > 0:2)
.
La v.a. X#& .
tiene distribuciÛn normal con media E(X#&) .
= E(X)#& = 0;
y varianza Var( . # &) =Var(X)
X . = 900
= 10 2
: Por otra parte, el suceso
+ + 9
+X. # &+ > 0:2 equivale a la uniÛn de sucesos X . # & < #0:2 y X . # & > 0:2
y estos dos sucesos tienen la misma probabilidad (por la simetrÌa de la
distribuciÛn normal). Por tanto:
+ +
P ( +X. # &+ > 0:2) = P (X. # & < #0:2) + P (X . # & > 0:2)
= 2 " P (X . # & < #0:2) = 2 " 0:492 = 0:984

Este resultado indica que es muy probable que la diferencia entre la media
de la muestra y la media de la poblaciÛn sea, en valor absoluto, superior a
0:2.

! Teorema Central del LÌmite (TCL)


Si X1 ; :::; Xn es una m.a.s. de una v.a. X con media Önita & y varianza Önita
( 2 , y el tamaÒo de la muestra n es grande, entonces la v.a. media muestral
X tiene aproximadamente distribuciÛn normal con media & y varianza ( 2 =n:
X!(
De aquÌ se deduce tambiÈn, tipiÖcando, que Z = q
!2
tiene aproximada-
n
mente distribuciÛn normal est·ndar.
Lo importante del TCL es que puede aplicarse cualquiera que sea la dis-
tribuciÛn de la v.a. X de partida:
X!(
ñ Si X tiene distribuciÛn normal, entonces Z = q
!2
tiene exactamente
n
distribuciÛn normal est·ndar cualquiera que sea el valor de n:
ñ Si X no tiene distribuciÛn normal, este mismo resultado sigue siendo
v·lido, aunque sÛlo de modo aproximado y si n es suÖcientemente
grande.

! La razÛn por la que la distribuciÛn normal es la m·s utilizada en EstadÌstica


es por el TCL.

13
! Ejemplo 1 (ContinuaciÛn):
En este ejemplo hemos supuesto que el n˙mero de hijos menores de 18 aÒos
de una familia es una v.a. discreta X con posibles resultados 0; 1 y 2; y con
funciÛn de probabilidad fX (0) = 0:4; fX (1) = 0:5; fX (2) = 0:1:
Ya calculamos antes E(X) = 0:7 y Var(X) = 0:41:
Por tanto, para n suÖcientemente grande, se tiene que
% &
. ' N 0:7; 0:41
X
n
. es una v.a. con distribuciÛn aproximada
Por ejemplo, si n = 100; entonces X
normal de media 0:7 y desviaciÛn tÌpica ( 0:41
100
)1=2 = 0:064:
Por tanto, la probabilidad de que X. estÈ entre 0:68 y 0:72 es:
) * ) *
. 2 (0:68; 0:72]) = P X
P (X . < 0:72 # P X . < 0:68 =
%. & %. &
X # 0:7 0:72 # 0:7 X # 0:7 0:68 # 0:7
=P < #P < ,
0:064 0:064 0:064 0:064
, (1 # 0:37733) # (1 # 0:62267) = 0:623 # 0:377 = 0:246

Con una probabilidad aproximada de 0:246; la media muestral estar· com-


prendida entre 0:68 y 0:72:
. es una v.a. con distribuciÛn aproximada nor-
Si fuese n = 1000; entonces X
0:41 1=2
mal de media 0:7 y desviaciÛn tÌpica ( 1000 ) = 0:0202; luego la probabilidad
anterior serÌa ahora:
. 2 (0:68; 0:72]) =
P (X
%. & %. &
X # 0:7 0:72 # 0:7 X # 0:7 0:68 # 0:7
=P < #P < ,
0:0202 0:0202 0:0202 0:0202
, (1 # 0:161063) # (1 # 0:838937) = 0:839 # 0:161 = 0:678

Con una probabilidad aproximada de 0:678; la media muestral estar· com-


prendida entre 0.68 y 0.72.
Esta probabilidad es, lÛgicamente, mucho mayor que la obtenida para n =
100; ya que conforme aumenta n; menor es la varianza de la media muestral,
y por tanto m·s concentrada est· su probabilidad alrededor de su valor
medio, que es E(X). = 0:7:

14
! ObsÈrvese que:

ñ Los c·lculos aproximados que se han hecho pueden hacerse incluso


aunque no se conozca la funciÛn de probabilidad de X; lo ˙nico que hay
que conocer es la media de la poblaciÛn &; la varianza de la poblaciÛn
( 2 y el tamaÒo de la muestra n:
ñ El c·lculo exacto de las probabilidades anteriores, incluso suponiendo
que se conoce la funciÛn de probabilidad de X; es casi imposible de
realizar pues el n˙mero de casos posibles es muy elevado (en total hay
3100 resultados posibles para la muestra si n = 100 y 31000 si n = 1000);
sin embargo, gracias al teorema central del lÌmite es sencillo determinar
aproximadamente estas probabilidades.
ñ La v.a. X. es discreta y, por tanto, no tiene distribuciÛn normal aunque,
por el teorema central del lÌmite, si n es grande sus probabilidades sÌ
pueden aproximarse con las de una distribuciÛn normal.

3. DistribuciÛn de la proporciÛn muestral


BibliografÌa: Newbold et al., SecciÛn 6.3.

! Supongamos que queremos estudiar la proporciÛn de la poblaciÛn p que


satisface una cierta caracterÌstica (por ejemplo: la proporciÛn de personas
que apoyan a un candidato, o la proporciÛn de artÌculos defectuosos que
fabrica una m·quina), y para ello disponemos de una muestra aleatoria
simple de n elementos extraÌdos de la poblaciÛn.
Llamemos Xi a la v.a.
8
< si el i # Èsimo elemento de la muestra satisface
1
Xi = la caracterÌstica
:
0 en caso contrario

Esta v.a. tiene distribuciÛn binomial Bi(1; p); por tanto E(Xi ) = p y
V ar(Xi ) = p(1 # p):
P
En este caso, la media de la muestra X = n!1 ni=1 Xi coincide con n" =n,
siendo n" el n˙mero de observaciones que satisfacen la caracterÌstica, es decir
que en este caso la media muestral coincide con la proporciÛn muestral pb de
observaciones que satisfacen esta caracterÌstica.

15
Utilizando los resultados sobre la media muestral que acabamos de derivar,
podemos deducir lo siguiente:
E(b
p) = E(X) = E(Xi ) = p
V ar(Xi ) p(1!p)
V ar(b
p) = V ar(X) = n
= n

Si queremos calcular probabilidades sobre pbPpodemos hacerlo de modo sen-


p = ni=1 Xi tiene distribuciÛn bino-
cillo sin m·s que tener en cuenta que nb
mial Bi(n; p):
! Ejemplo 4:
Para estudiar la proporciÛn de personas p que apoyan al alcalde de una
ciudad, extraemos una muestra formada por 10 personas, y les preguntamos
si apoyan o no al alcalde. Si realmente el 60% de la poblaciÛn apoya al
alcalde, øcu·l es la probabilidad de que en la muestra extraÌda el porcentaje
de personas que apoyan al alcalde sea inferior al 30%?
Llamando pb a la proporciÛn de personas que apoyan al alcalde en la muestra,
se trata de calcular P (b
p < 0:3); suponiendo que p = 0:6:
Si llamamos Xi a la v.a.
8
< si la i # Èsima persona encuestada
1
Xi = apoya al alcalde
:
0 en caso contrario
P
entonces pb = 10i=1 Xi =10:
Adem·s, cada Xi tiene
PdistribuciÛn binomial Bi(1; 0:6); y son independientes
10
unas de otras; luego i=1 Xi tiene distribuciÛn binomial Bi(10; 0:6):
Por tanto:
P10 !
i=1 Xi )P10 *
P (b
p < 0:3) = P < 0:3 = P i=1 Xi < 3 =
10
P10 P P10
= P ( i=1 Xi = 0) + P ( 10 i=1 Xi = 1) + P ( i=1 Xi = 2)
10! 10! 10!
= 0:60 0:410 + 0:61 0:49 + 0:62 0:48
0! " 10! 1! " 9! 2! " 8!
= 0:0123

Utilizando la opciÛn Herramientas )Buscador de valores p en Gretl:

16
! Es decir, si realmente el 60% de la poblaciÛn apoya al alcalde, es bastante
improbable (una probabilidad igual a 0:0123) que en nuestra muestra el
porcentaje de personas que apoyan al alcalde sea inferior al 30%.
Puesto que la proporciÛn muestral es una media muestral, tambiÈn podemos
aplicar el TCL.
Aplicando el resultado general a este caso se obtiene que:
pb # p
q ' N (0; 1):
p(1!p)
n

Esta aproximaciÛn suele funcionar bien cuando np(1 # p) > 5; y da un


modo alternativo para calcular las probabilidades relativas a la distribuciÛn
binomial (en este caso, de modo aproximado), si bien esta aproximaciÛn en
este caso no es de especial interÈs pues ya hemos visto antes cÛmo calcular
probabilidades exactas.

! Ejemplo 4 (ContinuaciÛn):
Supongamos ahora que la muestra est· formada por 1000 personas. Si real-
mente el 60% de la poblaciÛn apoya al alcalde, øcu·l es la probabilidad de
que en la muestra extraÌda el porcentaje de personas que apoyan al alcalde
sea inferior al 57%?
Podemos plantear el problema de modo an·logo a como lo hicimos antes:
P1000 !
Xi P
P (b
p < 0:57) = P i=1
< 0:57 = P ( 1000
i=1 Xi < 570)
1000

Al llegar aquÌ, si razonamos como antes tendrÌamos que calcular 570 suman-
dos, cada uno de ellos con una probabilidad binomial.

17
Este c·lculo podemos simpliÖcarlo, tal y como vimos en el curso pasado,
utilizando la funciÛn de distribuciÛn de la v.a. Bi(1000; 0:6); que est· pro-
gramada en Gretl:
P P1000
p < 0:57) = P ( 1000
P (b i=1 Xi < 570) = P ( i=1 Xi ) 569) = 0:0248

En este caso, como n es grande y np(1 # p) = 1000 " 0:6 " 0:4 = 240 es
mucho mayor que 5, tambiÈn podrÌamos calcular la probabilidad anterior
de modo aproximado utilizando el Teorema Central del LÌmite.
En este caso, la esperanza de la media muestral pb es p = 0:60 y su desviaciÛn
tÌpica es
% &1=2 % &1=2
p(1 # p) 0:6 " 0:4
= = 0:0155
n 1000
AsÌ pues, la distribuciÛn aproximada de la media muestral pb en este caso es
N (0:60; 0:01552 ); por lo que:
p < 0:57) , 0:026
P (b
Como vemos, la aproximaciÛn que se obtiene es bastante precisa.

4. DistribuciÛn de la varianza muestral


BibliografÌa: Newbold et al., SecciÛn 6.4.
! Consideremos X1 ; X2 ; :::; Xn , una m.a.s. de una v.a. X con media & y
varianza ( 2 .
La varianza muestral viene dada por
Pn 2
Pn 2
i=1 (Xi # X) X 2 # nX
2
S = = i=1 i
n#1 n#1
La esperanza de la varianza muestral es la varianza poblacional, esto es
E(S 2 ) = ( 2
DemostraciÛn:
'P (
n 2 2 ) *
E i=1 Xi # nX n(( 2 + &2 ) # n V ar(X) + E(X)2
2
E(S ) = = =
n#1 n#1
2
n( 2 + n&2 # n 'n # n&2 (n # 1)( 2
= = = (2
n#1 n#1

18
! Ejemplo 1 (ContinuaciÛn):
Supongamos ahora en el ejemplo 1, que el investigador est· interesado en la
varianza poblacional ( 2 ; que para Èl es un valor desconocido.
El investigador aproxima este valor utilizando la varianza muestral constru-
ida con dos observaciones, que en este caso resulta ser:
2
2 (X12 + X22 ) # 2X
S =
1
Puesto que X1 y X2 son variables aleatorias, tambiÈn S 2 es una variable
aleatoria.
Nosotros, que conocemos la funciÛn de probabilidad de X1 y X2 , podemos
calcular la funciÛn de probabilidad de la v.a. S 2 :
Para ello, de nuevo completamos la tabla, incluyendo cu·l es en cada caso
el resultado que se obtiene para S 2
La tabla que se obtiene es la siguiente:

(X1 ; X2 ) Probabilidad X Varianza Muestral S 2


(0; 0) 0:16 0 0
(0; 1) 0:20 0:5 0:5
(0; 2) 0:04 1 2
(1; 0) 0:20 0:5 0:5
(1; 1) 0:25 1 0
(1; 2) 0:05 1:5 0:5
(2; 0) 0:04 1 2
(2; 1) 0:05 1:5 0:5
(2; 2) 0:01 2 0

De la tabla previa deducimos que los posibles valores de S 2 son 0; 0:5 y 2:


La funciÛn de probabilidad de S 2 puede obtenerse sin m·s que examinar quÈ
casos llevan a cada uno de estos posibles resultados:

fS 2 (0) = 0:16 + 0:25 + 0:01 = 0:42


fS 2 (0:5) = 0:20 + 0:20 + 0:05 + 0:05 = 0:50
fS 2 (2) = 0:04 + 0:04 = 0:08

19
A partir de la funciÛn de probabilidad nosotros podemos deducir cualquier
caracterÌstica sobre la v.a. S 2 : Por ejemplo:

E(S 2 ) = 0 " 0:42 + 0:5 " 0:5 + 2 " 0:08 = 0:41 hijos2

ObsÈrvese que E(S 2 ) = ( 2 ; es decir, la esperanza de la v.a. varianza muestral


coincide con la varianza de la v.a. X que queremos estudiar; como hemos
probado antes.
Para poder hacer inferencia estadÌstica, que estudiaremos m·s adelante, ser·
necesario saber calcular probabilidades sobre la v.a. S 2 , suponiendo cono-
cido el valor de ( 2 :
Pero, al igual que ocurrÌa con la media muestral, ser· necesaria la hipÛtesis
adicional de que la m.a.s. proviene de una poblaciÛn normal.
Por lo tanto, en lo sucesivo supondremos que X1 ; :::; Xn son v.a. independi-
entes, todas ellas con distribuciÛn N (&; ( 2 ):

! Antes de ver cÛmo calcular probabilidades sobre S 2 en este caso, introducire-


mos una nueva distribuciÛn.
Se llama distribuciÛn
P chi-cuadrado con n grados de libertad a la distribu-
ciÛn de la v.a. ni=1 Zi2 ; siendo Z1 ; :::; Zn v.a. i.i.d. con distribuciÛn normal
est·ndar. A esta v.a. se le representa =2n :

! Propiedades de la v.a. =2n


Es una v.a. continua que toma siempre valores no negativos (por deÖniciÛn).
Su esperanza es n ya que al P ser Z1 ; :::; ZP
n v.a. i.i.d. con E (Zi ) = 0 y
V ar (Zi ) = 1, se tiene que E ( i=1 Zi ) = ni=1 E (Zi2 ) = n
n 2

Su varianza es 2n.
La expresiÛn de su funciÛn de densidad no se utiliza mucho pero a travÈs
de su gr·Öco (opciÛn Herramientas )Gr·Öcos de distribuciones en Gretl)
vemos que es asimÈtrica y depende de n.
Al igual que en el caso de la distribuciÛn normal, las probabilidades de v.a.
con distribuciÛn chi-cuadrado (es decir, las ·reas bajo la funciÛn de densidad)
no se calculan integrando, sino que estos valores pueden obtenerse con Gretl.
RecÌprocamente, en ocasiones dada una probabilidad p0 conocida, querremos
calcular cu·l es valor k tal que se satisface la condiciÛn P (=2n > k) = p0 ;

20
el valor de k que satisface esta condiciÛn lo podemos obtener tambiÈn con
Gretl.
De manera similar al caso de la distribuciÛn normal, denotaremos por =2n;%
al n˙mero real que deja a la derecha una probabilidad de 8: Es decir,

P (=2n > =2n;% ) = 8

! Ejemplo 5:
Supongamos que queremos calcular la probabilidad de que una v.a. W con
distribuciÛn chi-cuadrado con 5 grados de libertad sea inferior a 2, es decir
P (W < 2) con W ' =25 : Entonces, usando en Gretl la opciÛn Herramientas
)Buscador de valores p vemos que:

P (W < 2) = 0:1508 = 1 # 0:8491

Supongamos ahora que queremos obtener el n˙mero c que satisface la condi-


ciÛn P (W > c) = 0:08: Entonces, usando en Gretl la opciÛn Herramientas
)Tablas EstadÌsticas, vemos que:

Por tanto, c = 9:8366

21
! Teorema:
Si X1 ; :::; Xn es una m.a.s. de una v.a. X con distribuciÛn normal, X '
N (&; ( 2 ), se tiene que (n # 1)S 2 =( 2 es siempre una v.a. con distribuciÛn
chi-cuadrado con n # 1 grados de libertad.
ObsÈrvese que Pn
(n # 1) 2 i=1 (Xi # X)2
S =
(2 (2
Si en el numerador hubiÈramos empleado la media poblacional en lugar de
la media muestral, la v.a. que obtendrÌamos serÌa
Pn 2 Xn % Xi # & &2 Xn
i=1 (Xi # &)
= = Zi2 ;
(2 i=1 ( i=1

que, de acuerdo con la deÖniciÛn dada, es una v.a. con distribuciÛn chi-
cuadrado con n grados de libertad.
Al reemplazar & por X; los n sumandos que aparecen en el numerador ya
no son independientes.
P
Puesto que ni=1 (Xi # X) = (X1 + - - - + Xn ) # nX = 0; puede comprobarse
P ' (2
(no lo haremos) que ni=1 Xi'!X se comporta como la suma de cuadrados
de n # 1 v.a. N (0; 1) independientes, y de ahÌ que esos sean los grados de
libertad de la distribuciÛn chi-cuadrado obtenida.
El teorema anterior permite calcular probabilidades relativas a la varianza
muestral cuando tenemos una m.a.s. de una poblaciÛn normal, y suponemos
conocido el valor de (:

! Ejemplo 6:
La resistencia de un aparato elÈctrico fabricado por una compaÒÌa es una
v.a. X con distribuciÛn normal. La compaÒÌa ha indicado que la varianza
de esta distribuciÛn es ( 2 = 15 ohmios2 :
Para comprobar si la aÖrmaciÛn de la compaÒÌa es cierta, se ha extraÌdo
una muestra de X de tamaÒo 7 y queremos calcular cu·l serÌa en este caso
la probabilidad de que la varianza muestral S 2 sea superior a 26.
ObsÈrvese que la distribuciÛn de la v.a. S 2 no es conocida pero, por el
teorema anterior, sabemos que llamando W a la v.a. 6S 2 =15; esta v.a. tiene

22
distribuciÛn =26 , y es f·cil transformar la probabilidad que queremos calcular
en una probabilidad sobre la v.a. W :
% 2 &
2 6S 6 " 26
P (S > 26) = P > = P (W > 10:4)
15 15

Como W ' =26 ; utilizando la opciÛn Herramientas )Buscador de valores p


en Gretl se obtiene que:

P (W > 10:4) = 0:1088


Supongamos ahora que queremos determinar un valor b; de manera que la
probabilidad de que la varianza muestral sea superior a b sea igual a 0:05;
es decir b debe satisfacer la condiciÛn P (S 2 > b) = 0:05.
Esta condiciÛn podemos reescribirla utilizando la v.a. W = 6S 2 =15 del
modo siguiente:
% 2 & % &
2 6S 6b 6b
P (S > b) = P > =P W > = 0:05
15 15 15

Como W ' =26 ; usando en Gretl la opciÛn Herramientas )Tablas estadÌsti-


cas podemos obtener el valor c tal que P (W > c) = 0:05:

Este valor es c = 12:59: Por tanto:


% &
6b 6b
P W > = 0:05 ) = 12:59 )
15 15
12:59 " 15
b= = 31:475
6

23

También podría gustarte