Guion Tema1
Guion Tema1
   ! Ejemplos
   ESTADISTICA E INTRODUCCION A LA ECONOMETRIA
   Departamento de Fundamentos del An·lisis EconÛmico
   Universidad de Alicante.
   ! Ejemplos
     ñ El departamento de control de calidad de una empresa podrÌa querer
       determinar si ha habido un descenso signiÖcativo de la calidad de su
       producto entre las producciones de dos semanas consecutivas.
     ñ Un asesor Önanciero podrÌa querer informar a su cliente si, a lo largo
       del prÛximo aÒo, una inversiÛn en un fondo tendr· un rendimiento
       esperado mayor o menor que una inversiÛn en el mercado monetario.
     ñ Un profesor podrÌa estar interesado en saber si los resultados de los
       estudiantes matriculados en distintos Grados en los que imparte clase
       son signiÖcativamente distintos.
                                     2
! øQuÈ es la distribuciÛn muestral?
  Supongamos que queremos inferir algo acerca de un par·metro (la media)
  poblacional. Por ejemplo, queremos saber si el salario anual medio de los
  trabajadores espaÒoles es igual, mayor o menor que 20000 Euros.
  Para ello, usaremos un estadÌstico (la media muestral) calculado a partir
  de una muestra aleatoria. En nuestro ejemplo, con una muestra aleatoria
  de trabajadores espaÒoles, calcularÌamos el salario medio.
  Si el salario medio de la muestra fuese 21000 Euros, øpodrÌamos asegurar
  que el salario anual medio de los trabajadores espaÒoles es mayor que 20000
  Euros?
  La respuesta es NO ya que, øquÈ pasarÌa si con otra muestra aleatoria
  distinta de la anterior el salario medio hubiese sido 19000?
  Es importante entender que la media muestral es una variable aleatoria. Y
  por tanto, como tal, tendr· una funciÛn de distribuciÛn. Esa distribuciÛn
  de probabilidad ser· su distribuciÛn muestral.
! Ejemplo 1:
  Estamos interesados en la v.a. X= n˙mero de hijos menores de 18 aÒos que
  viven en un hogar seleccionado al azar en una poblaciÛn grande. Supon-
  dremos que sabemos que esta v.a. es discreta, con tres posibles valores 0; 1
  y 2, siendo su funciÛn de probabilidad la siguiente:
                                fX (0) = 0:4
                                fX (1) = 0:5
                                fX (2) = 0:1
  (Habitualmente no se tiene tanta informaciÛn sobre la v.a. que se quiere
  estudiar).
  Podemos calcular todas las caracterÌsticas poblacionales de X.
  Su esperanza, que tambiÈn llamaremos media poblacional y que representare-
  mos como &; resulta ser:
              & = E(X) = 0 " 0:4 + 1 " 0:5 + 2 " 0:1 = 0:7 hijos
  La varianza serÌa:
                ( 2 = E(X 2 ) # E(X)2 = 0:9 # 0:49 = 0:41 hijos2
                                      3
                                      p
La desviaciÛn tÌpica de X es ( =           0:41 = 0:64 hijos.
Un investigador, que desconoce las verdaderas probabilidades de cada uno de
los posibles resultados, quiere estudiar la variable X y para ello extrae una
m.a.s. de tamaÒo 2 de esta variable, es decir, examina el n˙mero de hijos
menores de 18 aÒos que viven en 2 hogares de la poblaciÛn seleccionados
aleatoriamente de modo independiente.
Representaremos la muestra como (X1 ; X2 ):
En total hay 32 = 9 resultados posibles para la muestra, que son: (0; 0);
(0; 1), (0; 2); (1; 0); (1; 1), (1; 2); (2; 0); (2; 1); (2; 2) (en cada par, el primer
n˙mero es el valor que puede tomar X1 y el segundo n˙mero es el valor que
puede tomar X2 ).
La probabilidad del primero de estos resultados es:
                             (X1 ; X2 )    Probabilidad
                              (0; 0)          0:16
                              (0; 1)          0:20
                              (0; 2)          0:04
                              (1; 0)          0:20
                              (1; 1)          0:25
                              (1; 2)          0:05
                              (2; 0)          0:04
                              (2; 1)          0:05
                              (2; 2)          0:01
                                       4
                                                     . es una variable
Puesto que X1 y X2 son variables aleatorias, tambiÈn X
aleatoria.
Nosotros, que conocemos la funciÛn de probabilidad de X1 y X2 , podemos
                                               .
calcular la funciÛn de probabilidad de la v.a. X:
Para ello, en primer lugar completamos la tabla anterior en la que obtuvimos
las probabilidades de la muestra, incluyendo cu·l es en cada caso el resultado
que se obtiene para X .
La tabla que se obtiene es la siguiente:
               (X1 ; X2 )                                  .
                               Probabilidad Media Muestral X
                (0; 0)             0:16            0
                (0; 1)             0:20            0:5
                (0; 2)             0:04            1
                (1; 0)             0:20            0:5
                (1; 1)             0:25            1
                (1; 2)             0:05            1:5
                (2; 0)             0:04            1
                (2; 1)             0:05            1:5
                (2; 2)             0:01            2
                                      5
           . = 0 " 0:16 + 0:5 " 0:40 + : : : + 2 " 0:01 = 0:7 hijos
         E(X)
                             . = E(X
                        V ar(X)    . 2 ) # E(X)
                                             . 2=
= (02 " 0:16 + 0:52 " 0:40 + : : : + 22 " 0:01) # 0:72 = 0:205 hijos2
                                     6
       Pero lo m·s importante es que, en la pr·ctica, nunca puede hacerse un
       estudio similar al que hemos hecho en el ejemplo previo, porque nosotros no
       conoceremos la distribuciÛn de X, pues es precisamente esta distribuciÛn (o
       alguna caracterÌstica de ella) la que queremos estudiar.
                                         7
            Pn                 Pn
    1. E(     i=1 ai Xi + b) =   i=1 ai E(Xi ) + b:
                                                P                      Pn
    2. Si   fXi gni=1 son independientes, V ar( ni=1    ai Xi + b) =    i=1   a2i V ar(Xi ):
  DemostraciÛn:
                                    !
                         1X               1X             1X
                             n                n               n
              . =E                                                n&
            E(X)               Xi       =       E(Xi ) =       &=    =&
                         n i=1            n i=1          n i=1     n
                                          8
  En realidad estas dos ˙ltimas igualdades podÌamos haberlas deducido sin
                                         . utilizando los resultados de este
  calcular la funciÛn de probabilidad de X;
  apartado:
                         . = E(X) = 0:7
                       E(X)
! A continuaciÛn vamos a recordar quÈ quiere decir que una v.a. X tenga
  distribuciÛn normal N (&; ( 2 ); y cuales son sus propiedades.
  Sea X una v.a. con distribuciÛn normal N (&; ( 2 ).
  Su funciÛn de densidad es la curva llamada campana de Gauss, centrada en
  &:
  Para calcular probabilidades sobre la distribuciÛn normal no hay que cal-
  cular integrales puesto que las ·reas que indican cada probabilidad pueden
  obtenerse utilizando diversos programas inform·ticos, por ejemplo, Gretl.
  TambiÈn podemos usar Gretl para calcular la inversa de la funciÛn de dis-
  tribuciÛn.
                                     9
! El Gretl es un programa gratuito de f·cil manejo que se puede descargar de
  la web: http://gretl.sourceforge.net/gretl_espanol.html
! Propiedad de ìlinealidadî de la distribuciÛn normal: X ' N (&; ( 2 ) )
  aX + b ' N (a& + b; a2 ( 2 ); es decir, las transformaciones lineales de v.a.
  normales siguen siendo v.a. normales.
  Si X ' N (&; ( 2 ); entonces (X # &)=( tiene distribuciÛn N (0; 1); llamada
  tambiÈn distribuciÛn normal est·ndar.
! Propiedad de ìcombinaciones linealesî de normales independientes: Si fXi gni=1
  son v.a. independientesPcon Xi ' N (&i ; ( 2i ); y fci gni=1 son
                                                                 Pn˙meros    reales
                          n                   2                    n
  cualesquiera,
  Pn 2 2         entonces    c X
                          i=1 i i '  N  (&; (   ), siendo   & =       c &
                                                                   i=1 i i y  (2 =
    i=1 ci ( i :
! Ejemplo 2:
  Si X1 ; X2 son dos v.a. independientes con distribuciÛn N (1; 4) y N (#2; 9),
  respectivamente, y consideramos
                               Y = 1 + 3X1 # 2X2
  entonces Y es tambiÈn una v.a. con distribuciÛn normal, con media
           E(Y ) = 1 + 3E(X1 ) # 2E(X2 ) = 1 + 3 " 1 # 2 " (#2) = 8
  y varianza
    V ar(Y ) = 32 " V ar(X1 ) + (#2)2 " V ar(X2 ) = 32 " 4 + (#2)2 " 9 = 72
  Por lo tanto, su desviaciÛn tÌpica es 721=2 = 8:4853; luego:
                               Y ' N (8; 8:48532 )
                                     10
  cuya distribuciÛn es normal est·ndar,
                       %                 &
                         Y #8      6#8
       P (Y < 6) = P            <          = P (Z < #0:2357) = 0:4068
                         8:4853   8:4853
  TambiÈn podemos calcular el n˙mero real c que deja a su derecha una prob-
  abilidad igual a 0:15. Este n˙mero c es el que satisface la condiciÛn:
P (Y > c) = 0:15
P (Y ) c) = 0:85
P (Z > z% ) = 8
P (Z ) z% ) = 1 # 8
                                     11
! Si tenemos una m.a.s.
                    ' de    (una v.a. X ' N (&; ( 2 ), entonces X es una v.a.
                          2    X!(
  con distribuciÛn N &; 'n y q   !2
                                    ' N (0; 1):
                                  n
  DemostraciÛn:
  X. = 1 Pn Xi : Dado que X1 ; X2 ; :::; Xn son v.a. con distribuciÛn normal
        n   i=1
  y son independientes, por las propiedades de ìlinealidadî de la distribuciÛn
  normal y de ìcombinaciones linealesî de normales independientes tenemos
  que:
                                  %         &      %       &
                   1X
                      n
                                    n& n( 2             (2
                         Xi ' N        ;      = N &;
                   n i=1             n n2               n
! Ejemplo 3:
  Se sabe que el peso (en gramos) de los tarros de cafÈ que envasa una
  planta productora de alimentos sigue una distribuciÛn normal N (&; ( 2 ), y
  se dispone de una muestra de n = 9 tarros.
  Si suponemos que & = 250 y que ( 2 = 900, podemos calcular la prob-
  abilidad) de que *el peso medio muestral sea inferior a 251. En este caso
  X. ' N 250; 900 ; es decir, X
                              . ' N (250; 102 ); luego:
                 9
                                      12
    Supongamos ahora que no conocemos el valor de &; pero sÌ el de ( 2 = 900;
    y queremos calcular:          +      +
                              P ( +X. # &+ > 0:2)
              .
    La v.a. X#&                                              .
                     tiene distribuciÛn normal con media E(X#&)           .
                                                                     = E(X)#&    = 0;
    y  varianza   Var(  . # &) =Var(X)
                        X               . =   900
                                                  = 10 2
                                                         : Por  otra parte, el suceso
    +       +                                  9
    +X. # &+ > 0:2 equivale a la uniÛn de sucesos X   . # & < #0:2 y X   . # & > 0:2
    y estos dos sucesos tienen la misma probabilidad (por la simetrÌa de la
    distribuciÛn normal). Por tanto:
                   +       +
               P ( +X. # &+ > 0:2) = P (X. # & < #0:2) + P (X  . # & > 0:2)
                       = 2 " P (X . # & < #0:2) = 2 " 0:492 = 0:984
    Este resultado indica que es muy probable que la diferencia entre la media
    de la muestra y la media de la poblaciÛn sea, en valor absoluto, superior a
    0:2.
                                        13
! Ejemplo 1 (ContinuaciÛn):
  En este ejemplo hemos supuesto que el n˙mero de hijos menores de 18 aÒos
  de una familia es una v.a. discreta X con posibles resultados 0; 1 y 2; y con
  funciÛn de probabilidad fX (0) = 0:4; fX (1) = 0:5; fX (2) = 0:1:
  Ya calculamos antes E(X) = 0:7 y Var(X) = 0:41:
  Por tanto, para n suÖcientemente grande, se tiene que
                                    %          &
                             . ' N 0:7;   0:41
                             X
                                            n
                                    . es una v.a. con distribuciÛn aproximada
  Por ejemplo, si n = 100; entonces X
  normal de media 0:7 y desviaciÛn tÌpica ( 0:41
                                            100
                                                 )1=2 = 0:064:
  Por tanto, la probabilidad de que X. estÈ entre 0:68 y 0:72 es:
                                   )         *     )          *
             . 2 (0:68; 0:72]) = P X
          P (X                       . < 0:72 # P X  . < 0:68 =
           %.                      &     %.                       &
             X # 0:7    0:72 # 0:7         X # 0:7     0:68 # 0:7
        =P           <               #P             <               ,
              0:064        0:064             0:064       0:064
         , (1 # 0:37733) # (1 # 0:62267) = 0:623 # 0:377 = 0:246
                                    14
   ! ObsÈrvese que:
     Esta v.a. tiene distribuciÛn binomial Bi(1; p); por tanto E(Xi ) = p y
     V ar(Xi ) = p(1 # p):
                                                       P
     En este caso, la media de la muestra X = n!1 ni=1 Xi coincide con n" =n,
     siendo n" el n˙mero de observaciones que satisfacen la caracterÌstica, es decir
     que en este caso la media muestral coincide con la proporciÛn muestral pb de
     observaciones que satisfacen esta caracterÌstica.
                                        15
  Utilizando los resultados sobre la media muestral que acabamos de derivar,
  podemos deducir lo siguiente:
                       E(b
                         p) = E(X) = E(Xi ) = p
                                               V ar(Xi )       p(1!p)
                       V ar(b
                            p) = V ar(X) =         n
                                                           =      n
                                       16
! Es decir, si realmente el 60% de la poblaciÛn apoya al alcalde, es bastante
  improbable (una probabilidad igual a 0:0123) que en nuestra muestra el
  porcentaje de personas que apoyan al alcalde sea inferior al 30%.
  Puesto que la proporciÛn muestral es una media muestral, tambiÈn podemos
  aplicar el TCL.
  Aplicando el resultado general a este caso se obtiene que:
                               pb # p
                              q       ' N (0; 1):
                                 p(1!p)
                                    n
! Ejemplo 4 (ContinuaciÛn):
  Supongamos ahora que la muestra est· formada por 1000 personas. Si real-
  mente el 60% de la poblaciÛn apoya al alcalde, øcu·l es la probabilidad de
  que en la muestra extraÌda el porcentaje de personas que apoyan al alcalde
  sea inferior al 57%?
  Podemos plantear el problema de modo an·logo a como lo hicimos antes:
                            P1000          !
                                  Xi             P
        P (b
           p < 0:57) = P     i=1
                                     < 0:57 = P ( 1000
                                                   i=1 Xi < 570)
                             1000
  Al llegar aquÌ, si razonamos como antes tendrÌamos que calcular 570 suman-
  dos, cada uno de ellos con una probabilidad binomial.
                                    17
     Este c·lculo podemos simpliÖcarlo, tal y como vimos en el curso pasado,
     utilizando la funciÛn de distribuciÛn de la v.a. Bi(1000; 0:6); que est· pro-
     gramada en Gretl:
                             P                     P1000
              p < 0:57) = P ( 1000
           P (b               i=1 Xi < 570) = P (     i=1 Xi ) 569) = 0:0248
     En este caso, como n es grande y np(1 # p) = 1000 " 0:6 " 0:4 = 240 es
     mucho mayor que 5, tambiÈn podrÌamos calcular la probabilidad anterior
     de modo aproximado utilizando el Teorema Central del LÌmite.
     En este caso, la esperanza de la media muestral pb es p = 0:60 y su desviaciÛn
     tÌpica es
                       %           &1=2 %           &1=2
                          p(1 # p)        0:6 " 0:4
                                       =                 = 0:0155
                             n              1000
     AsÌ pues, la distribuciÛn aproximada de la media muestral pb en este caso es
     N (0:60; 0:01552 ); por lo que:
                                    p < 0:57) , 0:026
                                 P (b
     Como vemos, la aproximaciÛn que se obtiene es bastante precisa.
                                       18
! Ejemplo 1 (ContinuaciÛn):
  Supongamos ahora en el ejemplo 1, que el investigador est· interesado en la
  varianza poblacional ( 2 ; que para Èl es un valor desconocido.
  El investigador aproxima este valor utilizando la varianza muestral constru-
  ida con dos observaciones, que en este caso resulta ser:
                                                     2
                              2  (X12 + X22 ) # 2X
                             S =
                                         1
  Puesto que X1 y X2 son variables aleatorias, tambiÈn S 2 es una variable
  aleatoria.
  Nosotros, que conocemos la funciÛn de probabilidad de X1 y X2 , podemos
  calcular la funciÛn de probabilidad de la v.a. S 2 :
  Para ello, de nuevo completamos la tabla, incluyendo cu·l es en cada caso
  el resultado que se obtiene para S 2
  La tabla que se obtiene es la siguiente:
                                       19
    A partir de la funciÛn de probabilidad nosotros podemos deducir cualquier
    caracterÌstica sobre la v.a. S 2 : Por ejemplo:
E(S 2 ) = 0 " 0:42 + 0:5 " 0:5 + 2 " 0:08 = 0:41 hijos2
    Su varianza es 2n.
    La expresiÛn de su funciÛn de densidad no se utiliza mucho pero a travÈs
    de su gr·Öco (opciÛn Herramientas )Gr·Öcos de distribuciones en Gretl)
    vemos que es asimÈtrica y depende de n.
    Al igual que en el caso de la distribuciÛn normal, las probabilidades de v.a.
    con distribuciÛn chi-cuadrado (es decir, las ·reas bajo la funciÛn de densidad)
    no se calculan integrando, sino que estos valores pueden obtenerse con Gretl.
    RecÌprocamente, en ocasiones dada una probabilidad p0 conocida, querremos
    calcular cu·l es valor k tal que se satisface la condiciÛn P (=2n > k) = p0 ;
                                        20
  el valor de k que satisface esta condiciÛn lo podemos obtener tambiÈn con
  Gretl.
  De manera similar al caso de la distribuciÛn normal, denotaremos por =2n;%
  al n˙mero real que deja a la derecha una probabilidad de 8: Es decir,
! Ejemplo 5:
  Supongamos que queremos calcular la probabilidad de que una v.a. W con
  distribuciÛn chi-cuadrado con 5 grados de libertad sea inferior a 2, es decir
  P (W < 2) con W ' =25 : Entonces, usando en Gretl la opciÛn Herramientas
  )Buscador de valores p vemos que:
                                    21
!   Teorema:
    Si X1 ; :::; Xn es una m.a.s. de una v.a. X con distribuciÛn normal, X '
    N (&; ( 2 ), se tiene que (n # 1)S 2 =( 2 es siempre una v.a. con distribuciÛn
    chi-cuadrado con n # 1 grados de libertad.
    ObsÈrvese que                          Pn
                            (n # 1) 2       i=1 (Xi #   X)2
                                   S =
                              (2                 (2
    Si en el numerador hubiÈramos empleado la media poblacional en lugar de
    la media muestral, la v.a. que obtendrÌamos serÌa
                Pn              2   Xn % Xi # & &2 Xn
                   i=1 (Xi # &)
                                  =                   =     Zi2 ;
                        (2             i=1   (          i=1
    que, de acuerdo con la deÖniciÛn dada, es una v.a. con distribuciÛn chi-
    cuadrado con n grados de libertad.
    Al reemplazar & por X; los n sumandos que aparecen en el numerador ya
    no son independientes.
                P
    Puesto que ni=1 (Xi # X) = (X1 + - - - + Xn ) # nX = 0; puede comprobarse
                          P '         (2
    (no lo haremos) que ni=1 Xi'!X se comporta como la suma de cuadrados
    de n # 1 v.a. N (0; 1) independientes, y de ahÌ que esos sean los grados de
    libertad de la distribuciÛn chi-cuadrado obtenida.
    El teorema anterior permite calcular probabilidades relativas a la varianza
    muestral cuando tenemos una m.a.s. de una poblaciÛn normal, y suponemos
    conocido el valor de (:
! Ejemplo 6:
    La resistencia de un aparato elÈctrico fabricado por una compaÒÌa es una
    v.a. X con distribuciÛn normal. La compaÒÌa ha indicado que la varianza
    de esta distribuciÛn es ( 2 = 15 ohmios2 :
    Para comprobar si la aÖrmaciÛn de la compaÒÌa es cierta, se ha extraÌdo
    una muestra de X de tamaÒo 7 y queremos calcular cu·l serÌa en este caso
    la probabilidad de que la varianza muestral S 2 sea superior a 26.
    ObsÈrvese que la distribuciÛn de la v.a. S 2 no es conocida pero, por el
    teorema anterior, sabemos que llamando W a la v.a. 6S 2 =15; esta v.a. tiene
                                      22
distribuciÛn =26 , y es f·cil transformar la probabilidad que queremos calcular
en una probabilidad sobre la v.a. W :
                                  % 2             &
                   2                6S     6 " 26
             P (S > 26) = P             >           = P (W > 10:4)
                                     15      15
23