TRABAJO FINAL ESTADISTICA 2
ANOVA UNIFACTORIAL Y COMPARACIONES MULTIPLES EN ANOVA
ESTUDIANTE:
SERGIO ANRES FERRER CASTRO- 2018215044
UNIVERSIDAD DEL MAGDALENA
FACULTAD DE INGENIERIA
Introducción
Dentro del marco de las ciencias y la ingeniería, se encuentra una
técnica estadística que señala si dos variables (una independiente y
otra dependiente) están relacionadas en base a si las medias de la
variable dependiente son diferentes en las categorías o grupos de la
variable dependiente. Es decir, señala si las medias entre dos o más
grupos son similares o diferentes, a todo esto, lo podemos conocer
como el ANOVA DE UN FACTOR
Resumen
El procedimiento ANOVA de un factor genera un análisis de
varianza de un factor para una variable dependiente cuantitativa
respecto a una única variable de factor (la variable independiente).
EL análisis de varianza se utiliza para contrastar la hipótesis de que
varias medias son iguales. Esta técnica es una extensión de la prueba
t para dos muestras
Abstract
The one-way ANOVA procedure generates a one-way analysis of
variance for a quantitative dependent variable with respect to a
single factor variable (the independent variable). The analysis of
variance is used to test the hypothesis that several means are equal.
This technique is an extension of the two-sample t-test.
1. ¿Cuándo usar ANOVA de un factor?
Usamos ANOVA de un factor cuando queremos saber si las
medias de una variable son diferentes entre los niveles o grupos
de otra variable.
Por ejemplo, si comparamos el número de hijos entre los grupos o
niveles de clase social: los que son clase baja, clase trabajadora,
clase media-baja, clase media-alta y clase alta. Es decir, vamos a
comprobar mediante ANOVA si la variable “número de hijos” está
relacionada con la variable “clase social”.
Concretamente, se analizará si la media del número de hijos varía
según el nivel de clase social a la que pertenece la persona.
Condiciones:
En ANOVA de un factor solo se relacionan dos variables: una
variable dependiente (o a explicar) y una variable independiente
(que en esta técnica se suele llamar factor)
La variable dependiente es cuantitativa (escalar) y la variable
independiente es categórica (nominal u ordinal).
Se pide que las variables sigan la distribución normal, aunque como
siempre esto es difícil de cumplir en investigaciones sociales.
También que las varianzas (es decir, las desviaciones típicas de cada
cuadrado) de cada grupo de la variable independiente sean similares
(fenómeno que se conoce como homocedasticidad). Aunque esto es
lo ideal, en la realidad cuesta de cumplir, e igualmente se puede
aplicar ANOVA
3. ¿Qué estadísticos se calculan en ANOVA?
Al aplicar ANOVA de un factor se calcula un estadístico o test
denominado F y su significación. El estadístico F se obtiene al
estimar la variación de las medias entre los grupos de la variable
independiente y dividirla por la estimación de la variación de las
medias dentro de los grupos.
El cálculo del estadístico F lo que hace es dividir la variación entre
los grupos por la variación dentro de los grupos. Si las medias entre
los grupos varían mucho y la media dentro de un grupo varía poco,
es decir, los grupos son heterogéneos entre ellos y similares
internamente, el valor de F será más alto, y, por tanto, las variables
estarán relacionadas.
En conclusión, cuanto más difieren las medias de la variable
dependiente entre los grupos de la variable independiente, más
alto será el valor de F. Si hacemos varios análisis de ANOVA de
un factor, aquel con F más alto indicará que hay más diferencias y
por tanto una relación más fuerte entre las variables.
La significación de F se interpretará como la probabilidad de que
este valor de F se deba al azar. Siguiendo un nivel de confianza del
95%, el más utilizado en ciencias sociales, cuando la significación
de F sea menor de 0,05 es que las dos variables están relacionadas.
4. ¿Cómo se interpreta el test de F y la significación?
Hemos de analizar e interpretar al aplicar ANOVA de un factor:
Significación: si es menor de 0,05 es que las dos variables están
relacionadas y por tanto que hay diferencias significativas entre los
grupos
Valor de F: cuanto más alto sea F, más están relacionadas las
variables, lo que significa que las medias de la variable dependiente
difieren o varían mucho entre los grupos de la variable
independiente
Para observaciones
Recuperado de probabilidad estadística para ingeniería y ciencias walpole
Regresión. Una forma alternativa y preferible de esta ecuación se obtiene
sustituyendo
Resolución de variabilidad en componentes se puede escribir como
La identidad anterior expresa como las variaciones entre los tratamientos y
dentro de los tratamientos contribuyen a la suma total de cuadrados. Sin
embargo, se puede obtener mucha información si se investiga el valor
esperado tanto de SCT como de SCE. Eventualmente calcularemos estimados
de la varianza que determinan la razón que
Uso de la prueba F en el ANOVA
El estimado s^2 es no sesgado, independientemente de la veracidad o falsedad de la
hipótesis nula. Es importante señalar que la identidad de la suma de cuadrados ha
hecho la partición no solo de la variabilidad total de los datos, sino también del
número total de grados de libertad. Es decir
Razón F para probar la igualdad de media
Ejemplo ANOVA DE UN FACTOR
Brock, entrenador pokemon y líder de gimnasio en ciudad plateada,
es también un reconocido criador pokemon y está interesado en
encontrar la dieta perfecta para el pikachu de ash ketchum. La dieta
está compuesta por carbohidratos, proteínas y grasas en diferentes
proporciones, por lo que decide realizar un diseño de experimentos
para saber cuál de las cuatro dietas propuestas ayuda a los pikachus
a estudiar durante la realización del experimento. Para medir el
efecto de la dieta en el crecimiento de los pikachus, se midió el
índice de masa corporal (IMC) el cual es una relación entre el peso y
a la estatura del individuo. Los datos recolectados se presentan a
continuación:
DIETA #1 DIETA #2 DIETA #3 DIETA #4
18.54 21.48 24.21 35.77
15.89 21.23 25.47 30.95
19.65 24.67 23.63 33.04
14.83 24.4 22.9 30.19