Capítulo 2
2. MARCO TEÓRICO
  2.1.   Series de Tiempo
         Una serie de tiempo es una realización de un proceso estocástico.
                                 Figura 2.1 Serie de Tiempo
         Toda     serie   temporal   debe   estar   constituida   por   cuatro
         componentes:
         Tendencia.- Componente dominante a través del tiempo a largo
         plazo.
                                                                                     26
             Componente cíclica.- Comportamientos periódicos observados
             en períodos largos.
             Componente oscilatoria.- Comportamientos irregulares que se
             desarrollan en períodos pequeños.
             Componente aleatoria.- La parte estocástica del proceso.
             Para poder emplear un modelo de análisis de series temporales es
             necesario referirnos a los procesos estocásticos, ya que la
             secuencia de observaciones se registra a través del tiempo de
             acuerdo a una ley de probabilidad.
    2.2.     Procesos Estocásticos
             Un Proceso Estocástico se define como una familia de variables
             aleatorias (definidas en una espacio probabilístico (,, p) ) que
             corresponden a momentos sucesivos del tiempo. Se nota por Y (t, )
             donde t es el tiempo y , donde  es la variable aleatoria.
             El análisis de un proceso estocástico puede hacerse de 2 formas:
             1) Mediante las funciones de distribución conjunta.
             2) A partir de los momentos.
             Notaremos ahora Y(t, ) por Yt.      1
1
    Véase Time Series Analysis, George P. Box, Gwilyn Jenkins, and Gregory Reinsel
                                                                           27
Para t = ti la función de distribución de la variable aleatoria Y ti es
F(Yti).
Para t = ti y t= tj, la función de distribución conjunta es F(Y ti,Ytj).
En general para un conjunto finito de valores en el tiempo t 1,t2,.....,tn
la distribución conjunta es F(Yt1, Yt2,.......,Ytn).
Se    dice    que   un    proceso      estocástico     está   perfectamente
caracterizado cuando se pueden determinar las funciones de
distribución conjunta para cualquier conjunto finito de variables t del
proceso, es decir, para cada valor finito de n se puede determinar:
                         F(Yt1, Yt2, ........., Ytn)
Este procedimiento en sí es muy complicado, por lo que se
acostumbra a utilizar el método de los momentos.
En una distribución de probabilidades se puede calcular momentos
de diverso orden, aunque los más utilizados son los de 1er orden y
2do orden.
En un proceso estocástico, la media o momento de 1er orden se
define por:
                                            t = E( Yt )
                                                                          28
Como momentos de segundo orden con respecto a la media,
además de la varianza, se considera las covarianzas entre
variables aleatorias       referidas a distintos instantes de tiempo
(autocovarianzas).
                   t,s  Cov( Yt , Ys )  E[( Yt   s )( Ys   s )]
Cuando t =s tenemos que:
                             Var( Yt ) = E[( Yt -  t )2 ]
Los coeficientes de autocorrelación son:
                 Cov( Yt , Ys )
       t,s                                            1   t, s  1
                Var( Yt )Var( Ys )
Es preferible usar las autocorrelaciones pues estas carecen de
unidades, es decir son medidas relativas a las que no afectan las
unidades de medida.
                                                                       29
La caracterización de un proceso estocástico por medio de los
momentos de primero y segundo orden es en principio más
incompleta que cuando se hace con funciones de distribución
conjunta. Ahora si el proceso es normal (gaussiano) este queda
perfectamente caracterizado a través de los dos primeros
momentos gaussianos.
                           Yt ~ N(  t ,  2t )
En una serie temporal se dispone de una observación para cada
periodo de tiempo, por lo que se la puede considerar como una
muestra de tamaño 1 tomada en periodos sucesivos de tiempo en
un proceso estocástico.
A diferencia de un muestreo aleatorio simple donde cada
extracción es independiente a las demás, en una serie temporal,
el dato extraído para un período de tiempo, no será en general
independiente de los datos de los períodos anteriores.
Si se dispone de n datos de una serie temporal con ellos hay que
estimar   n   medias   y    n     varianzas       sin   contar   con   las
autocovarianzas, entonces tal como se plantea el problema, no
tiene solución.
                                                                                             30
       Para poder, a partir de una realización, efectuar inferencias sobre
       un proceso estocástico es preciso imponer restricciones a dicho
       proceso, las cuales son: que sea estacionario y ergódico.
2.3.   Procesos Estacionarios
       Se dice que un proceso estocástico es estacionario en sentido
       estricto cuando al realizar un mismo desplazamiento en el tiempo
       de todas las variables aleatorias de cualquier distribución conjunta
       finita, resulta que la distribución no varía, es decir:
              F(Yt1, Yt2, Yt3,..........,Ytk) = F(Yt1+n, Yt2+n,....................,Ytk+n)
       Se dice que un proceso estocástico es estacionario de 1er orden o
       en media si :        t E[Yt ] = 
       Es decir, la media permanece constante en el tiempo.
       Se dice que un proceso estocástico es estacionario de 2 orden
       (o en sentido amplio) si se verifica :
                 1) t : Var( Yt )  E[( Yt   t )2 ]   2  
       2) La autocovarianza entre dos períodos distintos de tiempo viene
       afectada únicamente por el lapso de tiempo transcurrido entre
       estos dos períodos.
                                           t : E[( Yt  k   )( Yt   )]   k
                                                                         31
                          Cov[ Yt  k , Yt ]   k
En    un    proceso    estacionario          en      sentido    amplio   las
autocorrelaciones están dadas por :
                                           k
                                   k                    k0
                                           o
La representación gráfica de k para valores de k = 0, 1, 2 ..........
se denomina Correlograma.
                                Figura 2.2.
                                                                          32
       Cuando el proceso estocástico es estacionario en sentido amplio,
       puede estimarse los parámetros , o, 1, 2.......... a partir de una
       sola realización.
       A más de la estacionariedad es necesario que el proceso
       estacionario sea ergódico.
       Si un proceso estacionario es ergódico entonces:
                                                 k   k  0
                                            lim 
       Si para valores altos de k, k también es alto, se tiene que al
       aumentar el tamaño de la muestra se añade poca información
       nueva, en consecuencia los estimadores obtenidos no serían
       consistentes.
2.4.   Procesos Lineales
       Son procesos estocásticos estacionarios en sentido amplio y
       ergódicos que consisten en combinaciones lineales de variables
       aleatorias
          Proceso puramente aleatorio: “ruido blanco”
                                     E[t ]  0     t (media  0)
                                      2
                                     E[t ]       t (var constante)
                                                 2
              Yt  t   donde
                                     E[ ,  ]  0 t1  t2
                                      t1 t 2
                                                                                     33
      Procesos Autorregresivos de orden p: AR(p)
            Yt   1Yt 1   2 Yt  2 ...............  p Yt p  t
          Procesos de medias móviles de orden q MA (q)
            Yt t  1 t 1  2 t  2 ................ q t  q
          Procesos ARMA(p,q), combinación de los dos anteriores.
                      Yt   1 Yt 1 ..........  p Yt p  t  1 t 1 ........... q t  q
2.5.   Ecuaciones en Diferencias Finitas
       Operador de diferencias: 
                                       Yt  Yt  Yt  1
                                       ( Yt )  ( Yt  Yt 1)
                                       2 Yt  ( Yt  Yt 1 )  ( Yt 1  Yt  2 )
                                       n Yt  f ( Yt , Yt 1,........, Yt  n )
                                                                               34
Operador de retardos: L
El operador L se puede usar para expresar un modelo con
retardos:
                       Yt  1Yt 1  2 Yt  2 ............... p Yt  p  t
   Equivale a:
                 [1   L  2L2 ............. pLp ]Yt  t
                       Operador polinomial
                          de retardos: (L)                    (L)Yt = t
Ecuaciones de 1er orden
                      Yt  1Yt 1  0
Asumamos que la solución es de la forma:
                                                                                35
                                   Yt  t
                      t  1 t 1  0
            / t 1     1       0             ==>  = 1
                                                  ==> Yt  ( 1) t
        Si t = 0
                                Y0  ( 1)0
                                Y0  
                                Yt  Y0 ( 1) t
Una condición suficiente y necesario para que el proceso
estocástico sea estacionario es que :
                                                           | 1|  1
                      lim Yt        lim Y0 ( 1) t          Y0 lim 1t   0
                      t            t                          t 
Puesto que:
Alternativamente, se puede usar la ecuación polinomial de
retardos:
                                               Yt  1Yt 1  0
                                               [1  1L]Yt  0
                                               1  1L  0
                                                      1
                                               L
                                                      1
                                                                               36
Como sabemos que:
                              | 1|  1
                                  1
                              |      | 1          ==> |L1|  1
                                  1
Ecuaciones de 2do orden
                             Yt  1Yt 1   2 Yt  2  0
                    2  1   2  0             Ec. caracteristica
                             1  12  4 2
                    1,2 
                                   2
En una ecuación homogénea de 2do orden, cuando las raíces son
reales y diferentes la condición de estacionariedad implica que:
                                              | 1|  1      y    |  2|  1
                                            | u|  1
Si es raíz única:
Si son imaginarias o complejas se tiene que r<1, es decir las raíces
deben caer dentro del círculo unidad.
                                                                         37
       Como alternativa a la ecuación característica, se puede usar la
       ecuación polinomial de retardos:
                                          1  1L   2L2  0
                                                      1
                                               L1 
                                                      1
                                                      1
                                               L2 
                                                      2
       En este caso las raíces L1 y L2 deben caer fuera del círculo unidad.
2.6.   Modelos Lineales
   2.6.1. Modelos Autorregresivos (AR)
          Un modelo de proceso estocático será un AR de orden p, si se
          cumple que los valores presentes se los representa como p
          valores pasados.
          Modelo AR (1)
                                                Yt  1Yt 1  t
                                                           38
Una condición necesaria y suficiente para que el proceso
estocástico sea estacionario es que |1| < 1.
 Si |1| < 1 entonces las autocovarianzas serían:
                                           2
                                   o 
                                        1  12
             Para k  0
                               k  1 k 1
 Las autocorrelaciones estarían dadas por:
                                   o  1
                Para k  0
                                   k  1k
 Modelo AR(2)
                    Yt  1Yt 1   2 Yt  2  t
 Para que un modelo AR(2) sea estacionario se tiene que dar:
                               1  2  1
                                2  1  1
                                    2  1
 Las autocovarianzas están dadas por:
                                                                        39
                             o  1 1   2  2   2
          Para k  0         k  1 k 1   2  k  2
Las autocorrelaciones están dadas por:
                                  o  1
                                           1
                                  1 
                                         1  2
       Para k  1                 k  1k 1   2k  2
Modelo AR(p)
            Yt  1Yt 1  2 Yt  2 ............. p Yt  p  t
     (L)Yt  t          con     (L) = 1- 1L   2L2 ............ pLp
Para que el proceso sea estacionario se requieren que las
raíces de la ecuación (L)=0 estén fuera del círculo unidad.
                                                                                              40
Si tenemos que:
              Yt  1Yt 1   2 Yt  2 ............. p Yt  p  t
Y si multiplicamos esta ecuación por Yt-k y a su vez tomamos
esperanzas, tenemos que:
           E[ Y tYt  k ]  1E[ Yt 1Yt  k ]   2E[ Yt  2 Yt  k ].......... pE[ Yt  p Yt  k ]  E[t Yt  k ]
            k  1 k 1   2  k  2 .................... p  k  p  E[t Yt  k ]
               Si      k0
                o  1 1   2  2 ......... p  p   2e
               Para k  0
                k  1 k 1  2  k  2 ........ pk  p
Si dividimos la última ecuación para o tenemos:
                            k  1k 1   2k  2 ......... pk  p
Tomando o,1,2,........,p-1                     como condicione iniciales
determinadas a partir de                   o,1,2,........,p (conocidos), la
ecuación anterior nos permite calcular k para cualquier valor
de k p.
A la inversa, si se conocen 1,2,........,p utilizando la última
ecuación para k=1,2,......p se puede calcular 1,2,........,p.
                                                                 1  1  21                       pp 1
                                                                 
                                                                 2  11   2                     pp  2
                                                                 
                  Ecuaciones de Yule  Wal ker                                                             
                                                                                                           
                                                                 
                                                                 p  1p 1  2p  2                    p
                                                                             41
      Matricialmente
                                                                                           1
                                  1   1           1        2               p-1         1 
                                                                                             
                                   2    1        1         1              p-2         2 
                                                                                       
                                                                                             
                                  p  p-1     p-2      p-3              1           p 
2.6.2. Modelos de Medias Móviles (MA)
     Modelo representado en términos de un ruido blanco
     correspondiente a ese tiempo y q valores pasados de ese ruido
     blanco.
                          Yt t 1 t 1  2 t  2 ........................ q t  q
      Modelo MA(1)
                                          Yt t 1 t 1
                                                                  42
Las autocovarianzas están dadas por:
                                 o  (1  12 ) 2
                                 1  1 2
            Si k  1   k  0
Las autocorrrelaciones están dadas por:
                                    o  1
                                            1
                                   1 
                                          1  12
           Si   k 1     k  0
Modelo MA(2)
                       Yt t 1 t 1  2 t  2
Las autocorrelaciones están dadas por:
                                 o  (1  12   22 )2
                                 1  ( 1  1 2 ) 2                2   2 2
                                                             Si   k2        k  0
                                                                           43
Las autocorrelaciones están dadas por:
                                            o  1
                                                  1  12
                                            1 
                                                 1  12  22
                                                       2
                                            2 
                                                 1  12  22
                               Si k > 2     k  0
Modelo MA(q)
      Yt t 1 t 1  2 t  2 ........................ q t  q
   Yt  (L) t          con     (L) = 1- 1L  2L2 ............pLp
Las autocovarianzas están dadas por:
                                                                                                   44
                            o  (1  12  22 .........q2 ) e2
          ( k  1k 1  2k  2 .......q kq ) e2                 k = 1,2,........,q
     k  
                                      o                                     k>q
     Las autocorrelaciones están dadas por:
             k  1k  1 ..........q kq
                                                                k = 1,2,....... q
      k        1  12 ..........q2
                                0                               k>q
           
2.6.3. Modelos Mixtos Autorregresivos-Medias Móviles
     Modelos ARMA (p,q) es una combinación de las dos anteriores.
                       Yt  1Yt 1  2 Yt  2 ..........p Yt  p  t 1 t 1 2 t  2 ........... q t  q
                                            (L)  1  1L ......... pLp
         (L)Yt  (L) t                    
                                             (L)  1  1L ......... qL q
                                                                            45
     Para que el modelo sea estacionario se requiere que las raíces
     de (L) = 0 caiga fuera del círculo unidad.
     Modelo ARMA(1,1)
                         Yt  1Yt 1  t 1 t 1
                          o 1 1   2  1 2 ( 1  1)
                          1  1 o  1 2
                          k  1 k 1         k 1
     Las autocovarianzas están dadas por:
2.6.4. Modelo ARIMA(p,d,q)
     A   un   proceso    integrado        Yt se        le   denomina   proceso
     ARIMA(p,d,q) si tomando diferencias de orden d, se obtiene un
     proceso estacionario Wt del tipo ARMA(p,q).
     La I de la palabra ARIMA significa integrado.
     Sea Yt el modelo original (no estacionario) tomando diferencias
     de orden d se tiene un modelo estacionario W t del tipo
     ARMA(p,q).
                                                                      46
         La representación de un proceso ARIMA(p,d,q) es:
                           (L)(1 L)d Yt  (L) t
         Una clase considerablemente amplia de series se puede
         modelizar por medio de los procesos ARIMA gracias a que
         aplicando transformaciones de tipo no lineal, muchas series
         pasan a ser representables por medio de estos modelos.
         Hay series en las que a lo largo de un periodo extenso de
         tiempo la varianza puede estar afectada por una tendencia la
         cual no desaparece al tomar diferencias.
         Si se presenta esta característica la transformación adecuada
         puede consistir en la toma de logaritmos.
2.7.   Elaboración de Modelos
       Fase de Identificación
       En la 1era etapa de esta fase se procede a efectuar un análisis de
       estacionariedad. En el caso en que la serie no sea estacionario se
       aplican las transformaciones adecuadas con objeto de convertirla
       en estacionaria.
                                                                    47
Así, si se dispone de una serie Yt, se eligirá valores para  y  tales
que sea estacionaria la serie:
                                         Wt  (1  L)d Yt(  )
Tanto a Yt, como a Wt se les puede centrar (restar el valor de la
media) si se considera necesario.
En la 2da etapa, si procede a determinar el orden de la parte
autorregresiva (es decir p) y el de la parte de medias móviles (es
decir q) del proceso ARMA que se considere generador de la serie
estacionaria Wt.
Fase de Estimación
En esta fase se obtienen valores estimados para los parámetros:
                   1,  2 ,......, p , 1, 2 ,......, p   w
Una vez concluida esta fase, se tiene conocimiento de un proceso
que hipotéticamente, ha podido generar la serie temporal
transformada Wt, a partir de la cual se puede obtener la serie
original Yt.
                                                                       48
       En consecuencia, la serie W t, a partir de la expresión anterior, y
       conociendo los parámetros se puede expresar como:
                                                             
                                     (L)( Wt   t )  (L) t
       Se puede determinar el estimador de t, y si el modelo fuera
       adecuado, debería ser una serie que se aproxima al ruido blanco.
       Fase de Validación
       Esta fase va dirigida a establecer si se produce o no esta
       adecuación entre datos y modelos.
       Fase de Predicción
       Aquí se analizan pronósticos en términos probabilísticos de
       valores futuros de la variable. Esta fase es la prueba de fuego del
       modelo.
2.8.   Identificación de Modelos Estacionarios
       Para la identificación de los modelos estacionarios se utilizará
       principalmente la función de autocorrelación estimada (FACE) y la
       función de autocorrelación parcial estimada (FACPE).
   2.8.1. Función de Autocorrelación Estimada (FACE)
                                                                                  49
A partir de una muestra de tamaño N de valores de una serie
estacionaria     Wt      se         puede        calcular      un   coeficiente   de
autocorrelación muestral de orden k.
                           (W       t    W )( Wt  k  W )
                         t  k 1
                  rk               N                                   k = 1,2,3.........
                                     (W  W )
                                    t 1
                                             t
                                                      2
Observaciones:
1) El proceso original Yt se convierte en un proceso
   estacionario Wt al tomar diferencias. En cada diferencia que
   se toma se pierde una observación al comienzo de la serie
   (es decir en cada aplicación del operador ).
   Si para obtener Wt se han tomado d diferencias, entonces la
   muestra original de tamaño T se ha reducido a una muestra
   de tamaño N = T-d.
2) rk es el estimador de k de menor sesgo.
3) Para rN-1 se dispone de un solo sumando para el numerador,
   en cambio rN no se puede calcular. Al disminuir el número
   de sumandos en el numerador se pierde eficiencia en la
   estimación,    por          lo     que        no   se    recomienda      calcular
                                                                             50
        coeficientes   de   autocorrelación       para     tamaños      de   k
        superiores a 1/3 o 1/4 de la muestra.
        La secuencia de valores rk para k = 1,2,3,.........         constituye
        el correlograma estimado rk ( que es una forma gráfica de la
        FACE).
2.8.2. Función de Autocorrelación Parcial Estimada (FACPE)
      La función de autocorrelación parcial estimada se la puede
      calcular de dos formas:
      1) Mediante ecuaciones de Yule-Walker
                                    r
                                  11     1                                       11
                                21  1 r1  -1 r1 
                                 =                                         22
                                22  r1 1  r2 
                                 31  1    r1
                                                           1
                                                       r2  r1 
                                                         
                                 32   r1  1 r2  r2                      33
                                    r       r2 1  r3 
                                 33   1
     El inconveniente de esta forma de cálculo es la obtención de la
     matriz inversa que implica un gran número de operaciones.
     Procedimiento de Durbin.- Es un método recursivo que utiliza
     las ecuaciones:
                                                                                            51
                                                                      k 1
                                                               rk   k 1, jrk  j
                                                                       j 1
                                                     kk              k 1
                                                                 1   k 1, jrj
                                                                        j 1
         El inconveniente de esta forma de cálculo es que al ser
         recursiva acumula errores de redondeo por lo que se debe
         utilizar algoritmos de doble precisión:
                                       kj  k 1, j  kkk  1,k  j             j = 1,2,.....,k - 1
         2) Por Regresión
                                    Yt  11Yt  1
                                    Yt  21Yt 1  22 Yt  2
                                    Yt  k 1Yt  1  k 2 Yt  2 .................klk Yt  k
         La secuencia de valores estimados de                        kk       constituye el
         correlograma estimado kk ( que es una forma gráfica de la
         FACPE).
2.9.   Modelos para Series de Tiempo Estacionales
                                                                                 52
Estacionalidad es la tendencia a repetir un modelo de conducta
cada período o estación de referencia, el cual es generalmente de
un año. Las series estacionales se caracterizan por revelar una
fuerte correlación en el período estacional.
En general, a estos modelos se los puede expresar como:
                                dp (B )( S )D  p (B S )Yt   q (B ) q (B S ) t
S es el período de la estacionalidad. Por ejemplo, si el período de
estacionalidad es anual, S será 12; si el período de estacionalidad
            1 B
es trimestral, S será 4, etc
D = número de veces que se diferencia estacionalmente
           S  1  BS
d = número de veces que se diferencia estacionariamente
p,P,q,Q son polinomios de grado p,P,q,Q con raíces de módulo
superior a uno; t es un ruido blanco.
Un proceso que satisface esta ecuación                     se lo denomina
SARIMA[(p,d,q)x(P,D,Q)]S
                                                                            53
El razonamiento que conduce a obtener un modelo SARIMA,
consiste en aplicar en s series, obtenidas a partir de Y t, poniendo
para cada serie los meses idénticos, la misma transformación:
                                        ( S )D P (BS )
                                          P (B S )
                                           (S )D P (BS )
                                    t 
                                             P (BS )
Y suponer que la serie obtenida :
No tiene estacionalidades y es entonces modelizable por un
ARIMA(p,d,q):
                                            dp (B ) t  q (B ) t
De la combinación de las dos últimas ecuaciones, obtenemos la
ecuación general para estos modelos estacionales, detallada al
principio.
Las series estacionales pueden detectarse analizando las
funciones    de   autocorrelación   y    de    autocorrelación          parcial
estimadas, pues ellas presentan grandes valores en módulo para
los índices múltiplos de s.
                                                                                                      54
      La identificación de los parámetros P, D y Q de los factores
      estacionales se hace de forma similar al procedimiento utilizado
      para la identificación de los parámetros de los proceso ARIMA.
2.10. Pronósticos para Series No Estacionales
      Como expresamos anteriormente , un proceso ARIMA, lo podemos
      definir como:
                                                     (L)(1 L)d Yt   (L) t
                            Si                       (L) =  (L)(1- L)d
                                                     (L)Yt   (L) t
      Ahora, una observación Yt+l generado por un proceso ARIMA,
      donde l  1, puede ser expresado de tres formas:
      1) Directamente en términos de la ecuación diferencial
                      Yt  l  1Z t  l1 ...........p  dZ t  l p  d  1 t  l1 .........q t  l q  t  l
      2) Como una suma de ponderaciones de errores en curso y
         previos j
                                                                      
                                                            Ztl     
                                                                      j 0
                                                                             j   t  l j
                                                                                         55
         Donde o = 1, y los pesos  pueden ser obtenidos por la
         ecuación de coeficientes:
      3) Como una suma de ponderaciones de observaciones previas,
         más un error aleatorio
                                    (L)  (1  1B  2B 2 ........... )   (B )
                                                      
                                           Z t l    Z
                                                      j1
                                                            j   t l j    t  l
2.11. Pronósticos para Series Estacionales
      Una función de pronósticos para Series Estacionales, puede ser
      representada mediante una función de senos y cosenos:
                                        [s/2]
                                                          2jl                 2jl
                          Z t (l)  bo   [b1( tj ) cos(
                                     (t)
                                                               )  b(2tj) sin(      )]
                                          j1              s                    s
      Donde las b, son coeficientes adaptativos, y donde [s/2]= ½ S ,si s
      es par y [s/2]= ½(s-1) si s es impar.
2.12. Elección del Mejor Modelo
      Seleccionar un modelo que capture de una gran forma la
      estructura de los datos de una serie, es sin lugar a dudas nuestro
      principal objetivo, por lo cual para llevar a cabo la elección de un
                                                                56
buen modelo en el Análisis de Series de Tiempo que se detalla en
el Capítulo 3, nos basaremos en dos criterios:
1) Prueba de Student de significancia de parámetros.
   Esta prueba nos da a conocer si los parámetros del modelo
   son significativamente diferentes de cero, para lo cual se
   realiza el siguiente contraste de hipótesis:
                         Ho : i = 0
                             vs.
                         H1: i  0
   Si el valor p es menor que 0.05, se tiene evidencia estadística
   para afirmar que el parámetro es significativamente diferente de
   cero, con un nivel de confianza del 95%.
2) Media Cuadrática del Error
   La Media Cuadratica del Error del Modelo sin lugar a dudas va
   a ser un factor preponderante para decidir cual modelo captura
   de una mejor manera la estructura de los datos.
   Un buen modelo tiene que lograr reducirla, para así poder ser
   un gran medio de predicción.
57