[go: up one dir, main page]

0% encontró este documento útil (0 votos)
686 vistas49 páginas

11 No Paramètrico y Factorial2

Este documento describe las pruebas estadísticas no paramétricas. Explica que estas pruebas no requieren suposiciones sobre la distribución de la población, como la normalidad, y pueden usarse con datos ordinales o de pequeñas muestras. Describe la Prueba de Kruskal-Wallis, que compara las medianas de tres o más grupos, y un procedimiento para realizar comparaciones múltiples para determinar qué pares de grupos difieren. También presenta un ejemplo de asignar aleatoriamente 15 alumnos a tres
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
686 vistas49 páginas

11 No Paramètrico y Factorial2

Este documento describe las pruebas estadísticas no paramétricas. Explica que estas pruebas no requieren suposiciones sobre la distribución de la población, como la normalidad, y pueden usarse con datos ordinales o de pequeñas muestras. Describe la Prueba de Kruskal-Wallis, que compara las medianas de tres o más grupos, y un procedimiento para realizar comparaciones múltiples para determinar qué pares de grupos difieren. También presenta un ejemplo de asignar aleatoriamente 15 alumnos a tres
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 49

5.

Pruebas no paramétricas

5.1 Introducción

Uno de los problemas más difíciles para un estudiante y para el investigador


experimentado es decidir cuál de las pruebas estadísticas es la más adecuada para
analizar un conjunto de datos.

La selección de la prueba estadística necesaria para el caso depende de varios factores,


uno de ellos es saber con que escala se están midiendo los datos que se analizarán, pues
no se puede aplicar la misma prueba estadística para el caso en que la variable de interés
sea el peso de un producto, que para cuando lo es las posibles marcas de dicho producto,
es importante conocer las diferentes escalas con las que se pueden medir los datos que
se manejan; así como el tipo de variables con las que se va a trabajar.

Las pruebas estadísticas con las que se encuentran más familiarizados los investigadores
y a las que se dedica la mayor parte de los libre de texto son las referidas a la estadística
paramétrica. Las pruebas estadísticas correspondientes se aplican principalmente a datos
de tipo cuantitativo y cada una de ellas tiene algunos supuestos que deben ser verificados
antes de la realización de la prueba.

En la mayor parte de estas pruebas uno de los supuestos se refiere a la normalidad de la


población de la cual fue extraída la muestra. Si no se cumple este supuesto, sobre todo
en las pruebas en las cuales la muestra es de un tamaño menor de 30, la conclusión a la
que se llegue podría estar equivocada. En estos casos y cuando los datos que se manejan
no son cuantitativos, se podría aplicar una prueba estadística correspondiente a la
estadística no paramétrica.

5.2 Pruebas No Paramétricas

La estadística no paramétrica es la parte de la estadística que se ocupa de aquellos


procedimientos donde no se prioriza la naturaleza de la distribución de la población
(principalmente el supuesto de normalidad) como requisito para poder realizar la
inferencia. Por esta razón, también a estas técnicas se les conoce como de libre
distribución.

Además del problema de los supuestos, algunos experimentos o estudios que se deseen
realizar producen respuestas que no es posible evaluar con la escala que tiene más
ventajas, por ejemplo, cuando los datos solamente se encuentran en una escala ordinal
como cuando se evalúan las habilidades de los vendedores, o el atractivo de cinco
modelos de casas, o la preferencia por sabor de una determinada marca de yogurt. En
general, aspectos como la habilidad o preferencias de un alimento o producto, solamente
los podemos ordenar, resultados de este tipo se presentan frecuentemente en estudio de
mercado y en otro del campo de las ciencias sociales.

Las pruebas que se mencionarán son las que se podrían necesitar con mayor frecuencia.
Algunas de las pruebas no paramétricas permiten analizar datos sólo en escala nominal
u ordinal mientras que otras pruevas pueden ser aplicadas para datos de cualquier escala.

60
5.3 Cuadro comparativo de las Pruebas Paramétricas con las No Paramétricas

Mediante este cuadro se pretende brindar un resumen que ayude al fácil uso de las
pruebas no paramétricas.

Utilidad Prueba Paramétrica Prueba No Paramétrica


Prueba de Signos de una
Prueba Z para una muestra muestra
Evaluación de una media
Prueba T para una muestra Prueba de Wilcoxon de una
muestra
Prueba de Z para dos Prueba de la Mediana para
Evaluación de la diferencia muestras independientes dos muestras independientes
de dos medias independientes Prueba de T para dos
Prueba de Mann Whitney
muestras independientes
Prueba de Z para dos Prueba de Signos para dos
Evaluación de la diferencia muestras pareadas muestras pareadas
de dos medias dependientes Prueba de T para dos Prueba de Wilcoxon para dos
muestras pareadas muestras pareadas
Prueba de Kruskal-Wallis
Comparación de más de 2
Diseño Completamente al Prueba de la Mediana para
medias sin ninguna
Azar (D.C.A.) más de dos muestras
restricción
independientes
Diseño de Bloques
Comparación de más de 2
Completamente al Azar Prueba de Friedman
medias con una restricción
(D.B.C.A.)

5.4 Ventajas y Desventajas de las Pruebas No Paramétricas

Ventajas:

• Permiten que la prueba de hipótesis no constituya afirmaciones acerca de valores de los


parámetros poblacionales.
• Pueden utilizarse cuando se desconoce la distribución de la población muestreada.
• Pueden utilizarse cuando los daros están referidos a las escalas nominal u ordinal.
• En alguna pruebas se utiliza sólo la frecuencia de las observaciones.
• Son utilizadas cuando las muestras (n) son pequeñas (por lo general n < 30).

Desventajas:

• El uso de procedimientos no paramétricos con datos que pueden manejarse con un


procedimiento paramétrico conduce a un desperdicio de información.
• La aplicación de algunas de las pruebas no paramétricas puede ser laboriosa para
muestras grandes.

5.5 Prueba de Kruskal-Wallis

Aspectos Generales

61
Esta prueba sirve para probar la hipótesis nula de que varias poblaciones tienen las
mismas medianas. Así, es el equivalente no paramétrico del diseño completamente al
azar de un factor de análisis de la varianza.

Es decir, esta prueba puede ser utilizada cuando no se cumplen las suposiciones de que
las poblaciones de las cuales se extraen las muestras no están distribuidas normalmente
con variancias iguales, o cuando los datos constan sólo de rangos.

Supuestos

• Las muestras a ser evaluadas son aleatorias y mutuamente excluyentes.


• La variable respuesta está medida en una escala al menos ordinal.

Procedimiento para el Desarrollo de la Prueba

a. Las n1, n2,…, nk observaciones de los k grupos se combian en una sola serie de tamaño
n y se disponen en orden de magnitud desde la más pequeña hasta la más grande. Cuando
dos o más observaciones tienen el mismo valor, a cada una de ellas se le asigna la media
de los rangos con los cuales está relacionado.

b. Los rangos asignados a las observaciones en cada uno de los k grupos se suman por
separado para dar k sumas de rangos.
𝑛𝑖

𝑅𝑖 = ∑ 𝑅(𝑋)𝑖𝑗
𝑗=1

c. Aplicar la siguiente prueba estadística:

𝑘
1 𝑅𝑖2 𝑛(𝑛 + 1)2 2
𝑇 = 2 [∑ − ] ~𝜒(1−𝛼,𝑘−1)
𝑆 𝑛𝑖 4
𝑖=1
Donde:

𝑘 𝑛𝑖
1 𝑛(𝑛 + 1)2
𝑆2 = [∑ ∑ 𝑅2 (𝑋𝑖𝑗 ) − ]
𝑛−1 4
𝑖=1 𝑗=1

𝑛(𝑛+1)2
Si no hay empates 𝑆 2 se simplifica a , entonces T se simplifica a:
4

𝑘
12 𝑅𝑖2 2
𝑇 = {[ ] [∑ ]} − 3(𝑛 + 1)~𝜒(1−𝛼,𝑘−1)
𝑛(𝑛 + 1) 𝑛𝑖
𝑖=1

Donde:
n: Tamaño total de la muestra.
Rj: Suma de los rangos de la j-ésima muestra o grupo de tratamientos.
nj: Número de observaciones de la j-ésima muestra.
62
k: Número de tratamientos o grupos.

5.6 Comparaciones Múltiples

Si y solamente la hipótesis nula es rechazada, se puede usar el siguiente procedimiento


para determinar cual de los pares de poblaciones tienden a ser diferentes. Así, para ver
si existe diferencia entre las poblaciones i y j a un nivel de significación 𝛼 se compara:

𝑅𝑖 𝑅𝑗
| − |
𝑛𝑖 𝑛𝑗

𝑆 2 (𝑛−1−𝑇) 1 1
Con 𝐴𝐿𝑆(𝐾𝑊 ) = 𝑡(1−𝛼,𝑛−𝑘) √[ ( + )]
2 𝑛−𝑘 𝑛
𝑖 𝑛 𝑗

𝑅 𝑅
𝑗 𝑆 2 (𝑛−1−𝑇) 1 1
Así, si: |𝑛𝑖 − 𝑛 | > 𝑡(1−𝛼,𝑛−𝑘) √[ ( + )]
𝑖 𝑗 2 𝑛−𝑘 𝑛 𝑛𝑖 𝑗

Existe diferencia entre las funciones de distribución de las poblaciones i y j a un nivel


de significación 𝛼.

63
Ejemplo1

Quince alumnos del curso técnico son aleatoriamente asignados a tres tipo diferentes de
métodos de instrucción, todos los cuales persiguen el desarrollo de un nivel específico de
habilidad en diseño asistido por computadora. Para analizar la efectividad de los programas
se realizó una prueba consistente en 100 preguntas del tipo verdadero y falso. Las calificaciones
de la prueba de aprovechamiento al término de la unidad de instrucción se reportan en la
siguiente tabla:

Método A1 Método A2 Método A3


86 90 82
79 76 68
81 88 63
70 82 71
84 89 61

Pruebe si al menos uno de los métodos produce calificaciones distintas. Use un nivel de
significación de 0.05.

a. Ordenando datos

Los rangos correspondientes a los datos son:

Método A1 Método A2 Método A3


12.0 15.0 9.5
7.0 6.0 3.0
8.0 13.0 2.0
4.0 9.5 5.0
1.0 14.0 1.0
R1=42 R2=57.5 R3=20.5

b. Hipótesis

H0: Las calificaciones bajo los métodos de instrucción en estudio son las mismas.
Hp: Las calificaciones bajo los métodos de instrucción en estudio no son las mismas.

𝛼 = 0.05

c. Prueba Estadística

𝑘
1 𝑅𝑖2 𝑛(𝑛 + 1)2 2
𝑇 = 2 [∑ − ] ~𝜒(1−𝛼,𝑘−1)
𝑆 𝑛𝑖 4
𝑖=1

Donde:

64
𝑘 𝑛𝑖
1 𝑛(𝑛 + 1)2
𝑆2 = [∑ ∑ 𝑅2 (𝑋𝑖𝑗 ) − ]
𝑛−1 4
𝑖=1 𝑗=1

Desarrollo de la Prueba

1 15(15 + 1)2
𝑆2 = [(122 + ⋯ + 12 ) − ] = 1239.5 − 960 = 19.9643
15 − 1 4

1 (422 + 57.52 + 20.52 ) 15(15 + 1)2


𝑇= [ − ] = 6.917
19.9643 5 4

Criterio de Decisión
2
Como 𝜒(0.95,2) = 5.99 < 6.917 ,se rechaza H0

Conclusión: A un nivel de significación de 0.05 existe suficiente evidencia estadística para


afirmar que las calificaciones bajo los métodos de instrucción en estudio no son las mismas.

d. Comparación de medias

Como las calificaciones no son las mismas bajo al menos uno de los métodos de instrucción se
debe proceder a realizar pruebas de comparación.

H0: La calificación bajo el método de instrucción A1 es similar a la calificación bajo el método


de instrucción A2.
H1: La calificación bajo el método de instrucción A1 no es similar a la calificación bajo el
método de instrucción A2.

H0: La calificación bajo el método de instrucción A1 es similar a la calificación bajo el método


de instrucción A3.
H1: La calificación bajo el método de instrucción A1 no es similar a la calificación bajo el
método de instrucción A3.

H0: La calificación bajo el método de instrucción A2 es similar a la calificación bajo el método


de instrucción A3.
H1: La calificación bajo el método de instrucción A2 no es similar a la calificación bajo el
método de instrucción A3.

𝛼 = 0.05

𝑆 2 (𝑛 − 1 − 𝑇 ) 1 1
𝐴𝐿𝑆(𝐾𝑊 ) = 𝑡(1−𝛼,𝑛−𝑘) √[ ( + )]
2 𝑛−𝑘 𝑛𝑖 𝑛𝑗

65
19.9643(15 − 1 − 6.917) 1 1
𝐴𝐿𝑆(𝐾𝑊 ) = 𝑡(0.975,12) √[ ( + )] = 2.18(2.17) = 4.7306
15 − 3 5 5

𝑅𝑖 𝑅𝑗
Comparaciones | − | ALS(KW) Sig
𝑛𝑖 𝑛𝑗
42 57.5
A1 vs A2 | − | = 3.3 4.7306 n.s.
5 5
42 20.5
A1 vs A3 | − | = 3.9 4.7306 n.s.
5 5
57.5 20.5
A2 vs A3 | − | = 7.2 4.7306 *
5 5

Conclusión

A un nivel de significación de 0.05 se puede afirmar que las puntuaciones de los estudiantes que
utilizaron los métodos A2 y A3 difieren significativamente.

A un nivel de significación de 0.05 no se puede afirmar que las puntuaciones de los estudiantes
que utilizaron los métodos A1 y A2 difieren significativamente.

A un nivel de significación de 0.05 no se puede afirmar que las puntuaciones de los estudiantes
que utilizaron los métodos A1 y A3 difieren significativamente.

Resumen

M3 M1 M2
_________

Kruskal-Wallis Test: Puntaje versus Métodos

Kruskal-Wallis Test on Puntaje

Métodos N Median Ave Rank Z


1 5 81.00 8.2 0.12
2 5 88.00 11.5 2.14
3 5 71.00 4.3 –2.27
Overall 15 8.0

H = 6.50 DF = 2 P = 0.039
H = 6.52 DF = 2 P = 0.038 (adjusted for ties)

66
Ejemplo 2

Un inversionista desea construir un gran centro comercial en una ciudad. Se elegirá aquella
ciudad donde se demuestre que se tienen los mayores ingresos familiares promedio. Para tomar
la decisión más adecuada selecciona al azar muestras de familias provenientes de 3 ciudades.
Los resultados en (miles de soles) se presentan a continuación:

Arequipa Trujillo Chiclayo


2.3 2.1 3.6
4.1 2.6 4.1
3.2 2.4 3.2
3.8 2.5 3.3
1.4 2.2 3.9

A un nivel de significación de 0.05, diga Ud en que ciudad se debe construir el centro comercial.

Solución

Como la variable es de tipo cuantitativa continua, se podría realizar la prueba de comparación


de las medias de los ingresos familiares de las 3 ciudades, pero antes de hacerlo debemos
verificar el cumplimiento de los supuestos.

a. Prueba de normalidad y homogeneidad de varianza

Normalidad de los errores


H0: Los errores se distribuyen normalmente.
H1: Los errores no se distribuyen normalmente.
𝛼 = 0.05
p-valor = 0.516

Conclusión
A un nivel de significación de 0.05, no existe evidencia estadística para rechazar H0.
Por lo tanto, no se puede afirmar que los errores no se distribuyan normalmente.

Homogeneidad de varianzas
H0: 𝜎12 = 𝜎22 = 𝜎32
H1: Al menos un 𝜎𝑖2 es diferente 𝑖 = 1,2,3
𝛼 = 0.05
Pvalor = 0.009

Conclusión: A un nivel de significación de 0.05, existe evidencia estadística para afirmar que
las variancias de los tratamientos sean heterogéneas.

Como no se cumple el supuesto de homogeneidad de varianzas, no se puede realizar el Análisis


de Varianzas, por lo que se debe utilizar una prueba alternativa, que en este caso es la prueba de
Kruskal-Wallis (continue el ejercicio para tomar la decisión final).

67
Probability Plot of RESI1
Normal

Mean 2.66453SE – 16
91 StDev 0.6376
N 15
81 AD 0.310
P-Value 0.516
71

61
Percent

51

41

31

21

11

1
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
RESI1

Test for Equal Variances for Ingreso

Bartlett's Test
Test Statistic 9.42
P-Value 0.009
1
Levene's Test
Test Statistic 4.11
P-Value 0.044
Ciudad

0 1 2 3 4 5
95% Bonferroni Confidence Intervals for StDevs

68
5.7 Prueba de Friedman

5.7.1 Aspectos Generales

La prueba de Friedman es el equivalente no paramétrico de un análisis de dos vías o


Diseño de Bloques Completo al Azar (DBCA). Esta prueba es apropiada siempre que
los datos se midan, al menos, es una escala ordinal y puedan disponerse
significativamente en una clasificación de dos criterios, cmoo se hace en un experimento
de bloques al azar. Friedman comprueba la hipótesis nula de que k grupos relacionados
vienen de la misma población. Esta prueba es muy utilizada en experimentos donde se
consideran jueces (bloques) para que evalúen diferentes productos. Por ejemplo, en
Industrias Alimentarias muy frecuentemente se desea analizar el sabor de un producto
mediante un calificativo del 1 al 5.

5.7.2 Supuestos

• Los b bloques son mutuamente independientes, es decir, los resultados de un bloque


no influyen en los resultados de los otros bloques.
• La escala de medida es al menos ordinal, de modo que las observaciones pueden ser
ordenadas dentro de cada bloque.

5.7.3 Procedimiento para el Desarrollo de la Prueba

a. Para cada bloque, los k grupos son ordenados en un rango de 1 a k.


b. Los rangos asignados a las observaciones en cada uno de los k grupos se suman por separado
para dar k sumas de rangos.
c. Aplicar el estadístico de la prueba se basa en estos rangos y es el siguiente:

𝑘 𝑏 𝑘
2 1
𝐴 = ∑ ∑[𝑅(𝑋𝑖𝑗 )] 𝐵 = ∑ 𝑅𝑖2
𝑏
𝑖=1 𝑗=1 𝑖=1

𝑏2 𝑘(𝑘 + 1)2
(𝑘 − 1) [𝑏𝐵 − ]
4
𝑇= ~𝜒[(2 𝑘−1),1−𝛼]
𝑏𝑘 (𝑘 + 1)2
𝐴−
4

Si no hay empates, A se simplifica a:

𝑏𝑘(𝑘+1)(2𝑘+1)
𝐴= y por lo tanto, la expresión de T se reduce a:
6

𝑘
12
𝑇= ∑ 𝑅𝑖2 − 3𝑏(𝑘 + 1)~𝜒[(2 𝑘−1),1−𝛼]
𝑏𝑘 (𝑘 + 1)
𝑖=1

donde: b es el número de filas (bloques) y k es el número de columnas (tratamientos o


grupos).

69
d. Comparar este valor calculado con el valor 𝜒2 tabulado con k-1 grados de libertad y 1-
α.

2
Si 𝑇 > 𝜒(1−𝛼,𝑘−1) se rechaza H0.

5.7.4 Comparaciones Múltiples


Si la hipótesis nula es rechazada, la prueba de Friedman presenta un procedimiento para
comparar los tratamientos por pares. Se dirá que los tratamientos i y j difieren
significativamente si se cumple que:

2𝑏(𝐴 − 𝐵)
|𝑅𝑖 − 𝑅𝑗 | > 𝑡(1−𝛼,(𝑏−1)(𝑘−1))√
2 (𝑏 − 1)(𝑘 − 1)

70
Ejercicio 3

Se está realizando un experimento para analizar el sabor de una nueva marca de gaseosa cola
antes de que se lance al mercado. Las marcas de gaseosas colas en comparación fueron dadas
a 5 jueces especializados y se estableció una escala de valores de (1-5) donde 1 es el de peor
sabor y 5 el de mejor sabor.

Los resultados del experimento se muestran a continuación:

Marcas de gaseosas colas


Jueces
Cola 1 Cola 2 Cola 3 Nueva Cola
1 5 2 3 2
2 4 1 3 4
3 5 2 2 3
4 5 1 3 2
5 5 2 3 3

Pruebe si no existe igual preferencia por las gaseosas. Use α = 0.05.

Solución

Si realizamos el ordenamiento dentro de cada bloque se tendría el siguiente cuadro:

Marcas de gaseosas colas


Jueces
Cola 1 Cola 2 Cola 3 Nueva Cola
1 4.0 1.5 3.0 1.5
2 3.5 1.0 2.0 3.5
3 4.0 1.5 1.5 3.0
4 4.0 1.0 3.0 2.0
5 4.0 1.0 2.5 2.5
Total R1 = 19.5 R2 = 6 R3 = 12 R4 = 12.5

a. Hipótesis

H0: Las gaseosas de sabor cola en estudio tienen igual preferencia.


H1: Las gaseosas de sabor cola en estudio no tienen igual preferencia.

𝛼 = 0.05

b. Prueba Estadística

𝑏2 𝑘 (𝑘 + 1)2
(𝑘 − 1) [𝑏𝐵 − ]
4
𝑇=
𝑏𝑘 (𝑘 + 1)2
𝐴− 4

71
Donde:

𝑘 𝑏 𝑘
2 1
𝐴 = ∑ ∑[𝑅(𝑋𝑖𝑗 )] 𝐵 = ∑ 𝑅𝑖2
𝑏
𝑖=1 𝑗=1 𝑖=1

Desarrollo de la prueba

19.52 + 62 + 122 + 12.52


𝐴 = 42 + ⋯ + 2.52 = 148 𝐵= = 143.3
5

52 4(4 + 1)2
(4 − 1) [5(143.3) − ]
4
𝑇= = 11.93
5(4)(4 + 1)2
148 −
4
2
Criterio de Decisión: Como 𝜒(0.95,3) = 7.81 < 11.93 se rechaza H0

Conclusión
A un nivel de significación de 0.05 se puede afirmar que las gaseosas de sabor cola en estudio
no tienen igual preferencia.

c. Comparación

Por lo tanto, se debe proceder a realizar las pruebas de comparación.

H0: El sabor de la gaseosa cola 1 es similar al de la cola 2.


H1: El sabor de la gaseosa cola 1 no es similar al de la cola 2.

H0: El sabor de la gaseosa cola 1 es similar al de la cola 3.


H1: El sabor de la gaseosa cola 1 no es similar al de la cola 3.

H0: El sabor de la gaseosa cola 1 es similar al de la cola 4.


H1: El sabor de la gaseosa cola 1 no es similar al de la cola 4.

H0: El sabor de la gaseosa cola 2 es similar al de la cola 3.


H1: El sabor de la gaseosa cola 2 no es similar al de la cola 3.

H0: El sabor de la gaseosa cola 2 es similar al de la cola 4.


H1: El sabor de la gaseosa cola 2 no es similar al de la cola 4.

H0: El sabor de la gaseosa cola 3 es similar al de la cola 4.


H1: El sabor de la gaseosa cola 3 no es similar al de la cola 4.

𝛼 = 0.05

72
2𝑏(𝐴 − 𝐵) 2(5)(148 − 143.3)
𝐴𝐿𝑆(𝐹𝑟) = 𝑡(1−𝛼,(𝑏−1)(𝑘−1)) √ = 𝑡(0.975,(5−1)(4−1)) √
2 (𝑏 − 1)(𝑘 − 1) (5 − 1)(4 − 1)
= 2.18(3.92)

𝐴𝐿𝑆(𝐹𝑟) = 8.538

Comparaciones |𝑅𝑖 − 𝑅𝑗 | ALS(KW) Sig


1 vs 2 |19.5 − 6| = 13.5 8.538 *
1 vs 3 |19.5 − 12| = 7.5 8.538 n.s.
1 vs 4 |19.5 − 12.5| = 7 8.538 n.s.
2 vs 3 |6 − 12| = 6 8.538 n.s.
2 vs 4 |6 − 12.5| = 5.5 8.538 n.s.
3 vs 4 |12 − 12.5| = 0.5 8.538 n.s.

Resumen

C2 C3 C4 C1

Se puede afirmar a un nivel de significación de 0.05 que la cola de mayor preferencia en cuanto
al sabor, es la Cola 1.

Los resultados obtenidos con Minitab se muestran a continuación:

Friedman Test: Puntaje versus Colas; Jueces


Friedman test for Puntaje by Colas blocked by Jueces
S = 10,98 DF = 3 P = 0,012
S = 11,93 DF = 3 P = 0,008 (adjusted for ties)
Est Sum of
Colas N Median Ranks
1 5 5,000 19,5
2 5 2,000 6,0
3 5 3,000 12,0
4 5 3,000 12,5
Grand
median = 3,250

73
6. Experimentos factoriales

6.1 Características generales

El termino experimento factorial o arreglo factorial hace referencia a la constitución de


los tratamientos o combinaciones de tratamientos que se desean comparar. Este término
no afecta lo que se conoce como diseño de tratamientos, pues este se refiere a la
selección de factores que se desean estudiar los niveles de los factores a ensayar y
combinación de estos.

De esta forma se debe dejar en claro que el diseño de tratamientos es independiente del
diseño experimental, el cual hace referencia a la manera en que los tratamientos se
aleatorizan a las diferentes unidades experimentales y la forma como se controla la
variabilidad natural de las mismas. Así el diseño experimental puede ser completamente
aleatorizado, bloques completamente aleatorizados, cuadros latinos, etc., y para cada
uno de estos diseños se puede tener un arreglo factorial.

En muchos experimentos el éxito o fracaso del ensayo depende más de la selección de


los tratamientos que se desea comparar que de la elección del diseño. Sin embargo, la
selección de ambos (del diseño y de los tratamientos) es importante por tanto ninguno
de los dos debe descuidarse en la planeación del experimento.

6.2 Ventajas y desventajas

a. Ventajas de esta clase de experimento:

• Al obtener información sobre varios factores sin aumentar el tamaño del


experimento hay economía en el material experimental.
• Se amplía la base de la inferencia en relación a un factor ya que se estudia en las
• diferentes condiciones representadas por los niveles de otros
factores.
• Se puede obtener una estimación de la interacción de los efectos, o sea, se determina
el grado y la forma en la cual se modifica el efecto de un factor en presencia de los
niveles de los otros factores.
• El conjunto de los tratamientos en el diseño factorial es óptimo para estudiar efectos
• principales e
interacciones.

b. Desventajas más importantes:

• El gran número de combinaciones de tratamientos cuando se estudian muchos


factores a muchos niveles. Esto tiene dos efectos:

o Si se desea usar bloques completos es difícil encontrar grupos de unidades


experimentales homogéneos para asignar todos los tratamientos, esto se puede
eliminar usando el principio de confusión.
o Se aumenta el costo del experimento al tener muchas unidades experimentales,
o problema que se minimiza usando experimentos factoriales fraccionados, en este
caso, se prueba solo una parte de los tratamientos posibles.
74
• Difícil interpretación principalmente de las interacciones de orden
superior (interacciones de más de tres efectos).

6.3 Notación y Definiciones

a. Factor

Los factores son designados por letras mayúsculas. Por ejemplo, en un experimento en el
que se evalúan 3 cantidades de semilla con 4 dosis de nitrógeno por parcela y 2 variedades
de maíz destinado a chala, el factor cantidad de semilla se puede denotar por A, el factor
dosis de nitrógeno por B y el factor variedad de maíz por C.

b. Niveles de un Factor

Los niveles de un factor son denotados por letras minúsculas con subíndices. Por ejemplo,
las 3 cantidades de semilla podrían ser denotadas por a1, a2 y a3, las 4 dosis de nitrógeno
por b1, b2, b3 y b4, y las 2 variedades de maíz por c1 y c2.

Una combinación de letras minúsculas con sus respectivos subíndices es utilizada para
denotar una combinación de los niveles de los factores. Por ejemplo, la combinación
a2b2c1 denotará el tratamiento conformado por la aplicación de la cantidad a2 de semilla
con la dosis b2 de nitrógeno y la variedad c1 de maíz.

c. Tipos de Factores

Dependiendo de la naturaleza de los niveles de los factores, estos pueden ser cualitativos
o cuantitativos. En el ejemplo, los factores A y B son cuantitativos y el factor C cualitativo.
En el caso de factores cuantitativos, estos pueden ser igualmente espaciados o no. Así, por
ejemplo, para el factor B, niveles de 0, 10, 20 y 30 kg/parcela y de 10, 20, 40 y 80
kg/parcela constituirían niveles igualmente espaciados y no igualmente espaciados
respectivamente.

Adicionalmente, los factores pueden ser fijos o al azar, dependiendo de la forma en que
son seleccionados sus niveles (ver capítulo II). Un experimento factorial con todos sus
factores fijos corresponderá a un modelo I o de efectos fijos, un experimento factorial con
todos sus factores aleatorios corresponderá a un modelo II o de efectos aleatorios y un
experimento factorial con algunos factores fijos y otros aleatorios corresponderá a un
modelo III o de efectos mixtos. En el desarrollo de este capítulo se considerará que todos
los factores son fijos.

d. Tipos de Experimentos Factoriales

Un experimento factorial queda definido por el número de factores y niveles de cada


factor. Un experimento factorial puede ser denotado utilizando las letras correspondientes
a los factores antecedidas por el número de niveles correspondientes a cada uno. Por
ejemplo, el experimento con 3 niveles del factor A, 4 del factor B y 2 del factor C puede
ser denotado por 3A4B2C o simplemente 3x4x2.

75
6.4 Efectos en los Experimentos Factoriales

Efecto Principal: Es el efecto de un factor en promedio sobre los niveles de los otros
factores.

Efecto Simple: Es el Efecto de un factor, en un nivel de los demás factores.

Efecto de Interacción: Está dado por la variación que tiene un efecto simple de un factor
al pasar de un nivel a otro de otro factor.

Efecto Cruzado: Está dado por las combinaciones cruzadas de dos factores.

Ejemplo 1: A continuación se presentan datos para un experimento factorial 2x2.

Niveles del Factor A a1 a2


Niveles del Factor B b1 b2 b1 b2
Medias 54 38 45 56

Efectos Simples:

- de A en b1: ES(A(b1)) = a1 b1 – a2 b1 = 54 – 45 = 9
- de A en b2: ES(A(b2)) = a1 b2 – a2 b2 = 38 – 56 = -18
- de B en a1: ES(B(a1)) = a1 b1 – a1 b2 = 54 – 38 = 16
- de B en a2: ES(B(a2)) = a2 b1 – a2 b2 = 45 – 56 = -11

Efectos Principales:

1 9−18
- de 𝐴: EP(𝐴) = 2 [ES(𝐴(𝑏1 )) + ES(𝐴(𝑏2 ))] = = −4.5
2

1 16−11
- de 𝐵: EP(𝐵) = 2 [ES(𝐵(𝑎1 )) + ES(𝐵(𝑎2 ))] = = 2.5
2

Efecto de Interacción:
1 9+18
- de 𝐴𝐵: EI(𝐴𝐵) = 2𝑥2 [ES(𝐴(𝑏1 )) + ES(𝐴(𝑏2 ))] = = 6.75
2

1 16+11
EI(𝐴𝐵) = 2𝑥2 [ES(𝐵(𝑎1 )) + ES(𝐵(𝑎2 ))] = 2
= 6.75

Efectos cruzados:

- entre a1 b1 y a2 b2: EC(a1 b1 – a2 b2) = a1 b1 – a2 b2 = 54 – 56 = -2


- entre a1 b2 y a2 b1: EC(a1 b2 – a2 b1) = a1 b2 – a2 b1 = 38 – 45 = -7

76
La interacción entre dos factores puede también analizarse gráficamente. El gráfico de la
interacción presenta las medias de los niveles de un factor en cada uno de los niveles del
otro. Con los datos del ejemplo se tienen los siguientes gráficos:

B A

55
55

------ b2 ------ a2
---- - - - - a1
b1

50
50

mean of Y
mean of Y

45
45

40
40

a1 a2 b1 b2

A B

Cada línea corresponde a un efecto simple, y la interacción puede notarse cuando las líneas tienen
pendientes diferentes, esto es, cuando el efecto simple de un factor no es el mismo en todos los
niveles del otro. En el primer gráfico se presentan los efectos simples de A en b1 (línea punteada)
y de A en b2 (línea continua) y es claro que el efecto de A depende del nivel de B (esto es, que
existe interacción). A continuación se presenta otro ejemplo de interacción:

B A
48

48

------ b2 ------ a2
- - - - b1 - - - - a1
46

46
mean of Y

mean of Y
44

44
42

42
40

40
38

38

a1 a2 b1 b2

A B

Note que no es necesario que las líneas se crucen para evidenciar una interacción entre ambos
factores. Un caso de factores sin interacción aparente sería el siguiente:
45

45

B A
------ b2 ------ a2
- - - - b1 - - - - a1
40

40
mean of Y

mean of Y
35

35
30

30

a1 a2 b1 b2

A B
77
6.5 Experimento Factorial pxq

Modelo Aditivo Lineal

En un DCA, el modelo aditivo lineal está dado por:

𝑌𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝜀𝑖𝑗 𝑖 = 1, … , 𝑡

Ahora, dado que los tratamientos son generados por las combinaciones entre los niveles
de dos factores, el efecto de los tratamientos se descompone en el efecto del factor A, el
efecto del factor B y el efecto de la interacción entre los dos factores. Así, el modelo aditivo
lineal para un factorial pxq en DCA será:

𝑌𝑖𝑗𝑘 = 𝜇 + 𝛼𝑖 + 𝛽𝑗 + (𝛼𝛽)𝑖𝑗 + 𝜀𝑖𝑗𝑘 𝑖 = 1, … , 𝑝 𝑗 = 1, . . . , 𝑞 𝑘 = 1, . . . , 𝑟𝑖𝑗

donde:

𝑌𝑖𝑗𝑘 es el valor o rendimiento observado con el i-ésimo nivel del factor A, j-ésimo nivel
del factor B, k-ésima repetición.
𝜇 es el efecto de la media general.
𝛼𝑖 es el efecto del i-ésimo nivel del factor A.
𝛽𝑗 es el efecto del j-ésimo nivel del factor B.
(𝛼𝛽)𝑖𝑗 es el efecto de la interacción en el i-ésimo nivel del factor A, j-ésimo nivel del
factor B.
𝜀𝑖𝑗𝑘 es el efecto del error experimental en el i-ésimo nivel del factor A, j-ésimo nivel del
factor B, k-ésima repetición.
𝑝 es el número de niveles del factor A.
𝑞 es el número de niveles del factor B.
𝑟𝑖𝑗 es el número de repeticiones en el i-ésimo nivel del factor A, j-ésimo nivel del factor
B.

En el caso de un experimento factorial en DBCA, el modelo aditivo lineal es:

𝑌𝑖𝑗𝑘 = 𝜇 + 𝛼𝑖 + 𝛽𝑗 + (𝛼𝛽)𝑖𝑗 + 𝛾𝑘 + 𝜀𝑖𝑗𝑘 𝑖 = 1, … , 𝑝 𝑗 = 1, . . . , 𝑞 𝑘


= 1, . . . , 𝑏

donde:

𝛾𝑘 es el efecto del k-ésimo bloque.


b es el número de bloques.

Los supuestos del modelo serán los mismos que para el DCA o DBCA con un solo factor
vistos en capítulos anteriores. Los cálculos y procedimientos presentados de aquí en
adelante corresponderán al caso del experimento factorial pxq en DBCA. El caso del
experimento factorial en DCA es similar al del DBCA y será ilustrado mediante un
ejemplo.

78
Ejemplo 2 (Experimento Factorial en DBCA)

Se realizó un experimento con un arreglo factorial 2A3B en DBCA, en 4 campos de cultivo,


para evaluar el efecto en el rendimiento de maíz obtenido con dos tipos de abono (a1 y a2) y
tres dosis (b1=20, b2=30 y b3=40 kg/ha). Los resultados obtenidos (en t/ha) se presentan a
continuación:

a1 a2
Campos b1 b2 b3 b1 b2 b3
1 1.9 1.8 2.7 1.8 2.9 3.0
2 2.3 2.1 2.4 2.2 2.7 3.2
3 2.0 2.4 2.9 2.0 3.2 2.9
4 2.1 2.9 2.8 2.4 3.5 3.4
Total 8.3 9.2 10.8 8.4 12.3 12.5

a. El modelo aditivo lineal para este ejemplo será:

𝑌𝑖𝑗𝑘 = 𝜇 + 𝛼𝑖 + 𝛽𝑗 + (𝛼𝛽)𝑖𝑗 + 𝛾𝑘 + 𝜀𝑖𝑗𝑘 𝑖 = 1, … , 𝑝 𝑗 = 1, . . . , 𝑞 𝑘 = 1, . . . , 𝑏

donde:

𝑌𝑖𝑗𝑘 es el valor o rendimiento de maíz en Tm/Ha obtenido con el i-ésimo tipo de abono,
j-ésima dosis, k-ésimo campo de cultivo.
𝜇 es el efecto de la media general.
𝛼𝑖 es el efecto del i-ésimo tipo de abono.
𝛽𝑗 es el efecto del j-ésima dosis de abono.
(𝛼𝛽)𝑖𝑗 es el efecto de la interacción en el i-ésimo tipo de abono, j-ésima dosis.
𝛾𝑘 es el efecto del k-ésimo campo de cultivo.
𝜀𝑖𝑗𝑘 es el efecto del error experimental en el i-ésimo tipo de abono, j-ésima dosis, k-ésimo
campo de cultivo.
𝑝 = 2 es el número de niveles del factor A.
𝑞 = 3 es el número de niveles del factor B.
b = 4 es el número de bloques.

b. Estimación de los Efectos

Los efectos del modelo 𝜇, 𝛼𝑖 , 𝛽𝑗 , (𝛼𝛽)𝑖𝑗 y 𝛾𝑘 son estimados de modo que se minimice
la siguiente expresión (Método de Mínimos Cuadrados):
𝑝 𝑞 𝑏 𝑝 𝑞 𝑏
2 2
𝑄= ∑ ∑ ∑ 𝜀𝑖𝑗𝑘 = ∑ ∑ ∑(𝑌𝑖𝑗𝑘 − 𝜇 − 𝛼𝑖 − 𝛽𝑗 − (𝛼𝛽)𝑖𝑗 − 𝛾𝑘 )
𝑖=1 𝑗=1 𝑘=1 𝑖=1 𝑗=1 𝑘=1

teniendo en cuenta las siguientes restricciones:


𝑝 𝑞 𝑝 𝑞 𝑏

∑ 𝛼𝑖 = 0 ∑ 𝛽𝑗 = 0 ∑(𝛼𝛽)𝑖𝑗 = 0 ∑(𝛼𝛽)𝑖𝑗 = 0 ∑ 𝛾𝑘 = 0
𝑖=1 𝑗=1 𝑖=1 𝑗=1 𝑘=1
79
La aplicación de este método da los siguientes resultados para la estimación de los parámetros:

𝜇̂ = 𝑌̅••• 𝛼̂𝑖 = 𝑌̅𝑖•• − 𝑌̅••• 𝛽̂𝑗 = 𝑌̅•𝑗• − 𝑌̅•••


̂ ) = 𝑌̅𝑖𝑗• − 𝑌̅𝑖•• − 𝑌̅•𝑗• + 𝑌̅•••
(𝛼𝛽 𝛾̂𝑘 = 𝑌̅••𝑘 − 𝑌̅••• 𝜀̂𝑖𝑗𝑘 = 𝑌𝑖𝑗𝑘 − 𝑌̅𝑖𝑗• − 𝑌̅••𝑘 + 𝑌̅•••
𝑖𝑗

Ejemplo 2 (Cont.): Con los datos del ejemplo anterior, la media estimada es:

𝜇̂ = 𝑌̅••• = 2.5625

Los efectos estimados de los niveles del factor A:

𝛼̂1 = 𝑌̅1•• − 𝑌̅••• = 2.3583 − 2.5625 = −0.2042

𝛼̂2 = 𝑌̅2•• − 𝑌̅••• = 2.7667 − 2.5625 = 0.2042

Los efectos estimados de los niveles del factor B:

𝛽̂1 = 𝑌̅•1• − 𝑌̅••• = 2.0875 − 2.5625 = −0.475

𝛽̂2 = 𝑌̅•2• − 𝑌̅••• = 2.6875 − 2.5625 = 0.125

𝛽̂3 = 𝑌̅•3• − 𝑌̅••• = 2.9125 − 2.5625 = 0.35

El efecto estimado de la interacción entre el nivel 1 del factor A y el nivel 2 del factor B:

̂ ) = 𝑌̅12• − 𝑌̅1•• − 𝑌̅•2• + 𝑌̅••• = 2.3 − 2.3583 − 2.6875 + 2.5625 = −0.1833


(𝛼𝛽 12
El lefecto estimado del error 𝜀234

𝜀̂234 = 𝑌234 − 𝑌̅23• − 𝑌̅••4 + 𝑌̅••• = 3.4 − 3.125 − 2.85 + 2.5625 = −0.0125

c. Análisis de Variancia

En este modelo la variabilidad total se descompone de la siguiente manera:

Variabilidad (Total) = Var (Tratamientos) + Var (Bloques) + Var (Error)

donde a su vez, la variabilidad correspondiente a los tratamientos se descompone en:

Variabilidad (Tratamientos) = Var (Factor A) + Var (Factor B) + Var (Interacción AB)

La variabilidad total es cuantificada por la suma de cuadrados total:


𝑝 𝑞 𝑏 𝑝 𝑞 𝑏
2
𝑌•••
SC(Total) = SC(𝑌) = ∑ ∑ ∑(𝑌𝑖𝑗𝑘 − 𝑌̅••• ) = ∑ ∑ ∑ 𝑌𝑖𝑗𝑘
22

𝑝𝑞𝑏
𝑖=1 𝑗=1 𝑘=1 𝑖=1 𝑗=1 𝑘=1
2
𝑌•••
donde es el término de correción (TC).
𝑝𝑞𝑏

80
La variabilidad correspondiente a los tratamientos, la cual corresponde al efecto
combinado de los factores A y B, se calcula por:
𝑝 𝑞
2
𝑌𝑖𝑗•
SC(Comb. 𝐴𝐵) = SC(𝐴) + SC(𝐵) + SC(𝐴𝐵) = ∑ ∑ − 𝑇𝐶
𝑏
𝑖=1 𝑗=1

Las sumas de cuadrado para los factores A y B, para la interacción, bloques y error se
calculan de la siguiente manera:
𝑝
2
𝑌𝑖••
SC(𝐴) = ∑ − 𝑇𝐶
𝑞𝑏
𝑖=1

𝑞
2
𝑌•𝑗•
SC(𝐵) = ∑ − 𝑇𝐶
𝑝𝑏
𝑗=1

SC(𝐴𝐵) = SC(Comb. 𝐴𝐵) − SC(𝐴) − SC(𝐵)

𝑏
2
𝑌••𝑘
SC(Bloques) = ∑ − 𝑇𝐶
𝑝𝑞
𝑘=1

SC(Error) = SC(Total) − SC(Comb. 𝐴𝐵) − SC(Bloques)

Estas fuentes de variación son comparadas mediante el siguiente procedimiento de prueba


de hipótesis a partir del cuadro de análisis de variancia (Cuadro ANVA):

Cuadro ANVA

Grados de Suma de Cuadrados


Fuentes de
Libertad Cuadrados Medios Fc
Variación
(Gl) (SC) (CM)
SC(Bloques)
Bloques b–1 SC(Bloques)
gl(Bloques)
SC(𝐴) CM(𝐴)
A p–1 SC(A)
gl(𝐴) CM(Error)
SC(𝐵) CM(𝐵)
B q–1 SC(B)
gl(𝐵) CM(Error)
SC(𝐴𝐵) CM(𝐴𝐵)
AB (p – 1)(q – 1) SC(AB)
gl(𝐴𝐵) CM(Error)
Error SC(Error)
(pq – 1)(b – 1) SC(Error)
Experimental gl(Error)
Total pqb – 1 SC(Total)

81
Hipótesis:

Para el Modelo I (Efectos fijos) las hipótesis son, en términos de los efectos de los niveles
de los factores, las siguientes:

Para el efecto principal de A: H0 : 𝛼𝑖 = 0 ∀ 𝑖


H1 : 𝛼𝑖 ≠ 0 para al menos algún 𝑖

Para el efecto principal de B: H0 : 𝛽𝑗 = 0 ∀ 𝑗


H1 : 𝛽𝑗 ≠ 0 para al menos algún 𝑗

Para el efecto de la interacción AB: H0 : (𝛼𝛽)𝑖𝑗 = 0 ∀ 𝑖, 𝑗


H1 : (𝛼𝛽)𝑖𝑗 ≠ 0 para al menos algún 𝑖, 𝑗

Para el Modelo II (Efectos aleatorios) las hipótesis serán planteadas en términos de la


variancia de los niveles de los factores:

Para el efecto principal de A: H0 : 𝜎𝛼2 = 0


H1 : 𝜎𝛼2 > 0

Para el efecto principal de B: H0 : 𝜎𝛽2 = 0


H1 : 𝜎𝛽2 > 0

2
Para el efecto de la interacción AB: H0 : 𝜎𝛼𝛽 =0
2
H1 : 𝜎𝛼𝛽 > 0

Estadístico de Prueba:

CM(𝐴)
Para el efecto principal de A: 𝐹𝑐 = ~𝐹(gl(𝐴),gl(Error))
CM(Error)

CM(𝐵)
Para el efecto principal de B: 𝐹𝑐 = CM(Error) ~𝐹(gl(𝐵),gl(Error))

CM(𝐴𝐵)
Para el efecto de la interacción AB: 𝐹𝑐 = CM(Error) ~𝐹(gl(𝐴𝐵),gl(Error))

Regla de Decisión:

Las hipótesis nulas se rechazan con un nivel de significación 𝛼 si el Fc resulta mayor


que el valor de tabla 𝐹(1−𝛼) con los grados de libertad correspondientes a cada caso.

La primera hipótesis a evaluar es la correspondiente a la interacción. El hecho que no


exista interacción significa que el efecto de un factor es el mismo en cualquiera de los
niveles del otro, por lo que las conclusiones para los factores se obtendrán a partir del
análisis de sus efectos principales. Si en cambio existe interacción, el efecto de un factor
dependerá de los niveles del otro y el análisis de los efectos principales no será apropiado.
En este caso se deberá efectuar un análisis de los efectos simples de los factores.
82
Ejemplo 2 (Cont.): A continuación se presenta el análisis de variancia y la prueba de hipótesis
correspondiente para el ejemplo tratado en esta sección:

𝑝 𝑞 𝑏
2
2 𝑌•••
SC(Total) = ∑ ∑ ∑ 𝑌𝑖𝑗𝑘 −
𝑝𝑞𝑏
𝑖=1 𝑗=1 𝑘=1

61.52
= (1.92 + 2.32 + ⋯ + 3.42 ) − (2)(3)(4) = 6.0763

𝑝 𝑞
2
𝑌𝑖𝑗•
SC(Comb. 𝐴𝐵) = ∑ ∑ − 𝑇𝐶
𝑏
𝑖=1 𝑗=1

8.32 9.22 12.52 61.52


= + +⋯+ − (2)(3)(4) = 4.4738
4 4 4

𝑝
2
𝑌𝑖••
SC(𝐴) = ∑ − 𝑇𝐶
𝑞𝑏
𝑖=1

28.32 33.22 61.52


= + (3)(4) + (2)(3)(4) = 1.0004
(3)(4)

𝑞
2
𝑌•𝑗•
SC(𝐵) = ∑ − 𝑇𝐶
𝑝𝑏
𝑗=1

16.72 21.52 23.32 61.52


= (2)(4) + (2)(4) + (2)(4) − (2)(3)(4) = 2.91

SC(𝐴𝐵) = SC(Comb. 𝐴𝐵) − SC(𝐴) − SC(𝐵)

= 4.4738 − 1.0004 − 2.91 = 0.5633


𝑏
2
𝑌••𝑘
SC(Bloques) = ∑ − 𝑇𝐶
𝑝𝑞
𝑘=1

14.12 14.92 15.42 17.12 61.52


= (2)(3) + (2)(3) + (2)(3) + (2)(3) − (2)(3)(4) = 0.8046

SC(Error) = SC(Total) − SC(Comb. 𝐴𝐵) − SC(Bloques)

= 6.0763 − 4.4738 − 0.8046 = 0.7979

83
Cuadro ANVA

Grados de Suma de Cuadrados


Fuentes de Variación Libertad Cuadrados Medios Fc
(Gl) (SC) (CM)
Bloques 3 0.8046 0.2682
A 1 1.0004 1.0004 18.81
B 2 2.9100 1.4550 27.35
AB 2 0.5633 0.2817 5.30
Error Experimental 15 0.7979 0.0532
Total 23 6.0763

Para un modelo de efectos fijos las hipótesis serán:

Para el efecto principal de A: H0 : 𝛼𝑖 = 0 𝑖 = 1,2.


H1 : 𝛼𝑖 ≠ 0 para al menos algún 𝑖

Para el efecto principal de B: H0 : 𝛽𝑗 = 0 𝑗 = 1,2,3.


H1 : 𝛽𝑗 ≠ 0 para al menos algún 𝑗

Para el efecto de la interacción AB: H0 : (𝛼𝛽)𝑖𝑗 = 0 𝑖 = 1,2; 𝑗 = 1,2,3,.


H1 : (𝛼𝛽)𝑖𝑗 ≠ 0 para al menos algún 𝑖, 𝑗

Para la interacción, el estadístico de prueba es Fc = 5.30 y el valor de tabla, con un nivel de


significación del 5% es 𝐹(0.95,2,15) = 3.68. Dado que el estadístico de prueba resulta mayor
que el valor de tabla, se rechaza H0 y se concluye que hay suficiente evidencia estadística
para aceptar la existencia de interacción entre el tipo de abono y la dosis; por lo tanto, será
necesario analizar los efectros simples de los factores en vez de sus efectos principales.

El coeficiente de variación para este experimento es:

CME 0.0532
𝑐𝑣 = √ =√ = 9%
̅
𝑌••• 2.5625

d. Análisis de los Efectos Simples

Este análisis debe ser efectuado en el caso que la interacción resulte significativa y consiste
en evaluar a cada factor en cada uno de los niveles del otro. Las hipótesis a contrastar en
este caso, asumiento un Modelo I (Efectos fijos), son los siguientes:

a. Para el efecto simple de A en el j-ésimo nivel de B:

H0 : 𝜇1𝑗• = 𝜇2𝑗• = ⋯ 𝜇𝑝𝑗•

H1 : Al menos un 𝜇𝑖𝑗• es diferente.

84
b. Para el efecto simple de B en el i-ésimo nviel de A:

H0 : 𝜇𝑖1• = 𝜇𝑖2• = ⋯ 𝜇𝑖𝑞•

H1 : Al menos un 𝜇𝑖𝑗• es diferente.

Los grados de libertad para cada efecto simple serán iguales a los grados de libertad del
correspondiente efecto principal y las sumas de cuadrados son calculadas de acuerdo con
las siguientes fórmulas:

a. Para el factor A en el j-ésimo nivel del factor B:


𝑝
2 2
𝑌𝑖𝑗• 𝑌•𝑗•
SC(𝐴𝑏𝑗 ) = ∑ −
𝑏 𝑝𝑏
𝑖=1

b. Para el factor B en el i-ésimo nivel del factor A:


𝑞
2 2
𝑌𝑖𝑗• 𝑌𝑖••
SC(𝐵𝑎𝑖 ) = ∑ −
𝑏 𝑞𝑏
𝑗=1

Para cada efecto simple el estadístico de prueba Fc se calcula dividiendo el cuadrado medio
del efecto simple entre el cuadrado medio del error. El efecto será significativo con un
nivel de significación 𝛼 si es que el Fc es mayor que el valor F de tabla con los grados de
libertad del efecto y del error.

Ejemplo 2 (Cont.): Análisis de los efectos simples.


𝑝
2 2
𝑌𝑖1• 𝑌•1• 8.32 8.42 16.72
SC(𝐴𝑏1 ) = ∑ − = + − = 0.00125
𝑏 𝑝𝑏 4 4 (2)(4)
𝑖=1

𝑝
2 2
𝑌𝑖2• 𝑌•2• 9.22 12.32 21.52
SC(𝐴𝑏2 ) = ∑ − = + − = 1.20125
𝑏 𝑝𝑏 4 4 (2)(4)
𝑖=1

𝑝
2 2
𝑌𝑖3• 𝑌•3• 10.82 12.52 23.32
SC(𝐴𝑏3 ) = ∑ − = + − = 0.36125
𝑏 𝑝𝑏 4 4 (2)(4)
𝑖=1

𝑞
2 2
𝑌1𝑗• 𝑌1•• 8.32 9.22 10.82 28.32
SC(𝐵𝑎1 ) = ∑ − = + + − = 0.80167
𝑏 𝑞𝑏 4 4 4 (3)(4)
𝑖=1

𝑞
2 2
𝑌2𝑗• 𝑌2•• 8.42 12.32 12.52 33.22
SC(𝐵𝑎2 ) = ∑ − = + + − = 2.67167
𝑏 𝑞𝑏 4 4 4 (3)(4)
𝑖=1
85
Cuadro ANVA para efectos simples

Grados de Suma de Cuadrados


Fuentes de Variación Libertad Cuadrados Medios Fc
(Gl) (SC) (CM)
A b1 1 0.00125 0.00125 0.02 n.s.
A b2 1 1.20125 1.20125 22.58 *
A b3 1 0.36125 0.36125 6.79 *
B a1 2 0.80167 0.40083 7.54 *
B a2 2 2.67167 1.33583 25.11 *
Error Experimental 15 0.79792 0.05319
Total 23 6.07625

Las hipótesis son:

Para A en b1: H0 : 𝜇11• = 𝜇21•


H1 : 𝜇11• ≠ 𝜇21•

Para A en b2: H0 : 𝜇12• = 𝜇22•


H1 : 𝜇12• ≠ 𝜇22•

Para A en b3: H0 : 𝜇13• = 𝜇23•


H1 : 𝜇13• ≠ 𝜇23•

Para B en a1: H0 : 𝜇11• = 𝜇12• = 𝜇13•


H1 : Al menos un 𝜇1𝑗• es diferente.

Para B en a2: H0 : 𝜇21• = 𝜇22• = 𝜇23•


H1 : Al menos un 𝜇2𝑗• es diferente.

Los efectos simples del factor A son comparados con el valor de tabla 𝐹(0.95,1,15) = 4.54 y los
efectos simples del factor B con 𝐹(0.95,2,15) = 3.68. Note que sólo el efecto simple de A en b1
resulta no significativo. Las conclusiones en este experimento serían las siguientes:

• No existe suficiente evidencia estadística para aceptar que con los dos tipos de abono se
obtengan resultados diferentes en el rendimiento de maíz cuando se aplican en la dosis b1
(20 kg/ha).

• Existe suficiente evidencia estadística para aceptar que con los dos tipos de abono se
obtienen resultados diferentes en el rendimiento del maíz cuando se aplican las dosis b2
(30 kg/ha) y b3 (40 kg/ha).

• Existe suficiente evidencia estadística para aceptar que con al menos una de las dosis se
obtienen resultados diferentes en el rendimiento de maíz tanto con el abono a1 como con
el a2.

86
Estos resultados pueden apreciarse en el siguiente gráfico:

B A
------ 3 ------ 2
3.0

3.0
----2 ----1
……… 1
2.8

2.8
mean of Y

mean of Y
2.6

2.6
2.4

2.4
2.2

2.2
1 2 1 2 3

A B

6.6 Pruebas de comparación de medias de efectos principales

Para comparar las medias de los niveles i y j de un factor sobre todos los niveles del otro
utilice las siguientes fórmulas para la desviación estándar:

Prueba Factor A Factor B


2CME 2CME
t y DLS 𝑆𝑑 = √ 𝑆𝑑 = √
𝑞𝑏 𝑝𝑏

CME CME
Tukey 𝑆𝑑 = √ 𝑆𝑑 = √
𝑞𝑏 𝑝𝑏

6.7 Pruebas de comparación de medias de efectos simples

Para comparar las medias de los niveles k y l de un factor en un nivel del otro uitlice las
siguientes fórmulas para las desviaciones estándar:

Prueba Factor A en bj Factor B en ai


2CME 2CME
t y DLS 𝑆𝑑 = √ 𝑆𝑑 = √
𝑏 𝑏

CME CME
Tukey 𝑆𝑑 = √ 𝑆𝑑 = √
𝑏 𝑏

87
Ejemplo 2 (Cont.): En el análisis de variancia de efectos simples se obtuvo resultados
significativos para los efectos simples de A en b2, A en b3, B en a1 y B en a2. Dado que el
factor A sólo tiene dos niveles, no será necesario efectuar pruebas de comparaciones múltiples.
En el factor B, en cambio, sí se podrían realizar comparaciones por pares entre sus tres niveles.
A continuación se presenta la prueba Tukey para B en a1.

H0 : 𝜇11• = 𝜇12• H0 : 𝜇11• = 𝜇13• H0 : 𝜇12• = 𝜇13•


H1 : 𝜇11• ≠ 𝜇12• H1 : 𝜇11• ≠ 𝜇13• H1 : 𝜇12• ≠ 𝜇13•

El valor de tabla con 𝛼 = 5%, p = 3 tratamientos y 15 grados de libertad para el error


experimental es AES(T) = 3.67.

La amplitud límite significativa de Tukey es:

CME 0.05319
ALS(T) = AES(T)√ = 3.67√ = 0.4232
𝑏 4

A continuación, se presentan los resultados para las 3 comparaciones:

Niveles de B en a1 |𝑌̅1𝑗• − 𝑌̅1𝑗• | Significancia


1y2 0.225 n.s.
1y3 0.625 *
2y3 0.400 n.s.

a1b1 a1b2 a1b3


2.075 2.3 2.7
__________________________

Ejemplo 2 (Cont.): Ahora se aplicará la prueba t para evaluar si con el nivel 3 de B se obtienen
mejores resultados que con el nivel 1 cuando se aplica el abono 2.

H0 : 𝜇21• = 𝜇23•
H1 : 𝜇21• < 𝜇23•

El valor del estadístico de prueba es:

𝑌̅21• − 𝑌̅23• 2.1 − 3.125


𝑡𝑐 = = = −6.29
√2CME √2(0.05319)
𝑏 4

El valor de tabla con 𝛼 = 5% y 15 grados de libertad para el error 𝑡(0.05,15) = −1.753. Como
estadístico de prueba resulta menor que el valor de tabla, se rechaza H0 y se concluye que
existe suficiente evidencia estadística para aceptar que con las dosis 3 se obtienen mejores
resultados que con la dosis 1 cuando se aplica el abono de tipo 2.
88
Ejemplo 3 (Experimento factorial en DCA)

Los siguientes datos muestran los aumentos de peso en gramos de ratas machos bajo 6
tratamientos de alimentación en un experimento conducido en un DCA. Los factores en estudio
y los resultados del experimento son:

A: Fuente de proteína (a1 = res, a2 = cereal, a3 = cerdo).


B: Dosis de proteína (b1 = baja, b2 = alta).

a1 a2 a3
b1 b2 b1 b2 b1 b2
88 83 91 107 64 93
74 102 81 95 83 78
90 108 75 97 74 95
83 104 101 80 73 97
335 397 348 379 294 363

a. Modelo Aditivo Lineal: En este caso el diseño utilizado es un DCA, por lo que el modelo
aditivo lineal será el siguiente:

𝑌𝑖𝑗𝑘 = 𝜇 + 𝛼𝑖 + 𝛽𝑗 + (𝛼𝛽)𝑖𝑗 + 𝜀𝑖𝑗𝑘 𝑖 = 1, … , 𝑝 𝑗 = 1, . . . , 𝑞 𝑘 = 1, . . . , 𝑟

donde:

𝑌𝑖𝑗𝑘 es la ganancia de peso obtenida con la i-ésima fuente de proteína en la j-ésima dosis,
k-ésima repetición.
𝜇 es el efecto de la media general.
𝛼𝑖 es el efecto de la i-ésima fuente de proteína.
𝛽𝑗 es el efecto de la j-ésima dosis de proteína.
(𝛼𝛽)𝑖𝑗 es el efecto de la interacción en la i-ésima fuente de proteína, j-ésima dosis.
𝜀𝑖𝑗𝑘 es el efecto del error experimental en la i-ésima fuente de proteína, j-ésima dosis, k-
ésima repetición.
𝑝 = 3 es el número de niveles del factor A.
𝑞 = 2 es el número de niveles del factor B.
r = 4 es el número de repeticiones.

b. Estimación de los efectos:

𝜇̂ = 𝑌̅••• = 88.17

Efectos estimados de los niveles del factor A:

𝛼̂1 = 𝑌̅1•• − 𝑌̅••• = 91.50 − 88.17 = 3.33

𝛼̂2 = 𝑌̅2.. − 𝑌̅ … = 90.88 − 88.17 = 2.71


𝛼̂3 = 𝑌̅3.. − 𝑌̅ … = 82.13 − 88.17 = −6.04
89
Efectos estimados de los niveles del factor B:
𝛽̂1 = 𝑌̅.1. − 𝑌̅ … = 81.42 − 88.17 = −6.75
𝛽̂2 = 𝑌̅.2. − 𝑌̅ … = 94.92 − 88.17 = 6.75

Efecto estimado de la interacción en el nivel 1 del factor A y el nivel 2 del factor B:


̂ 12 = 𝑌̅12. − 𝑌̅1.. − 𝑌̅.2. + 𝑌̅ … = 99.25 − 91.5 − 94.92 + 88.17 = 1
(𝛼𝛽)

El efecto estimado del error 𝜀312 :


𝜀̂312 = 𝑌312 − 𝑌̅31. = 83 − 73.5 = 9.5

c. Análisis de variancia:
𝜌 𝑞 𝑟
2 𝑌⋯2 21162
𝑆𝐶 (𝑇𝑜𝑡𝑎𝑙 ) = ∑. ∑. ∑ 𝑌𝑖𝑗𝑘 − = (882 + 742 + ⋯ + 972 ) − = 3329.33
𝑝𝑞𝑟 (3)(2)(4)
𝑖=1 𝑗=1 𝑘=1

𝜌 𝑞
2 3352 3972 3632 21162
𝑆𝐶 (𝐶𝑜𝑚𝑏𝐴𝐵 ) = ∑. ∑ 𝑌𝑖𝑗. − 𝑇𝐶 = ( + +⋯+ )− = 1635.33
4 4 4 (3)(2)(4)
𝑖=1 𝑗=1

𝜌
𝑌𝑖..2 7322 7272 6572 21162
𝑆𝐶 (𝐴) = ∑ − 𝑇𝐶 = ( + + )− = 439.58
𝑞𝑟 2∗4 2∗4 2∗4 (3)(2)(4)
𝑖=1

𝑞
𝑌.𝑗.2 9772 11392 21162
𝑆𝐶 (𝐵) = ∑ − 𝑇𝐶 = ( + )− = 1093.5
𝑝𝑟 3∗4 3∗4 (3)(2)(4)
𝑖=1

𝑆𝐶 (𝐴𝐵) = 𝑆𝐶 (𝐶𝑜𝑚𝑏. 𝐴𝐵) − 𝑆𝐶 (𝑎) − 𝑆𝐶 (𝐵) = 1635.33 − 439.58 − 1093.50 = 102.25


𝑆𝐶 (𝐸𝑟𝑟𝑜𝑟) = 𝑆𝐶 (𝑇𝑜𝑡𝑎𝑙 ) − 𝑆𝐶 (𝑐𝑜𝑚𝑏. 𝐴𝐵) = 3329.33 − 1635.33 = 1694

Cuadro ANVA

Fuente de Gl SC CM Fc
variación
A 2 439.58 219.79 2.34
B 1 1093.5 1093.5 11.62
AB 2 102.25 51.13 0.54
Error 18 1694.00 94.11
experimental
Total 23 3329.33

90
Para un modelo de efectos fijos las hipótesis serán:

Para el efecto principal de A:

𝐻0 : 𝛼𝑖 = 0 𝑖 = 1,2,3
𝐻1 : 𝛼𝑖 ≠ 0 𝑝𝑎𝑟𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑎𝑙𝑔𝑢𝑛 𝑖

Para el efecto principal de B:

𝐻0 : 𝛽𝑗 = 0 𝑗 = 1,2
𝐻1 : 𝛽𝑗 ≠ 0 𝑝𝑎𝑟𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑎𝑙𝑔𝑢𝑛 𝑗

Para el efecto principal de C:

𝐻0 : 𝛼𝛽𝑖𝑗 = 0 𝑖 = 1,2,3 𝑗 = 1,2


𝐻1 : 𝛼𝛽𝑖𝑗 ≠ 0 𝑝𝑎𝑟𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑎𝑙𝑔𝑢𝑛 𝑖, 𝑗

Para la interacción el estadístico de prueba es Fc= 0.54 y el valor de tabla, con un nivel de
significación del 5% es 𝐹(0.95,2,18)) = 3.55. como el estadístico de prueba resulta menor que el
valor de tabla no se rechaza Ho y se concluye que no hay suficiente evidencia estadística para
aceptar la existencia de interacción entre la fuente de proteína y la dosis. Dado que la interacción
resulta no significativa, las conclusiones para un factor serán independientes del otro; por lo tanto,
se procede al análisis de los efectos principales.

Para el factor A se obtiene un Fc de 2.34 menor que el valor de la tabla 𝐹(0.95,2,18)) = 3.55, por lo
que se rechaza Ho y se concluye que no existe suficiente evidencia estadística para aceptar que
con al menos una de las fuentes de proteína se obtenga una ganancia de peso diferente en las razas.
Para el factor B en cambio, se obtiene un Fc de 11.62 mayor que el valor de la tabla 𝐹(0.95,2,18)) =
4.41, por lo tanto se rechaza Ho y se concluye que si existe suficiente evidencia estadística para
aceptar que la ganancia de peso de las ratas es diferente en as dos dosis de proteína.
El coeficiente de variación para este experimento es:

√𝐶𝑀𝐸 √94.11
𝑐𝑣 = = = 11%
𝑌̅ … 88.17

91
Ejemplo 4

En un experimento realizado con tres variedades de peces, se evaluó el efecto de tres


porciones de alimentos, para lo cual se utilizó un Diseño de Bloques Completos al
Azar con tres repeticiones y con arreglo factorial 3 x 3. En el cuadro se puede observar
las ganancias de peso de los peces al final del experimento.

Especie Porcion I II III


p1 95 90 87
A p2 67 68 78
p3 74 64 67
p1 74 85 79
B p2 71 68 69
p3 68 73 65
p1 87 93 89
C p2 70 75 69
p3 67 70 71

a. Ordenando los datos y hallando las sumatorias respectivas para los tratamientos,
especies, porciones y bloques tenemos:

A B C
Especie p1 p2 p3 p1 p2 p3 p1 p2 p3
Porcion 95 67 74 74 71 68 87 70 67
I 90 68 64 85 68 73 93 75 70
673
II 686
III 87 78 67 79 69 65 89 69 71 674
272 213 205 238 208 206 269 214 208 2033
p1 779 p2 635 p3 619 2033
A 690 B 652 C 691
2033

92
b. Efectuando los cálculos para el ANVA tenemos:

TC = (2033)2 / (27) = 153077.3704

SC (Tratamientos) = [ (2722+2132+…+2082) / (3) ] – TC = 1970.296296

SC (Bloques) = [(6732+6862+6742) / (9) ] –TC = 11.62962963

SC (Especies) = [ (6902+6522+6912)/ (r*E) ] – TC = 109.8518519

SC (Porciones) = [ (7792+6352+6192) / (r*P) ] – TC = 1725.62963

SC (Total) = (952+…+712) – TC = 2275.62963

SC (Error) = SC (Total) – SC (Tratamientos) – SC (Bloques) = 293.7037037

SC E*P = SC(Tratamientos) – SC (Porciones) – SC (Especies) = 134.8148148

Ft
Fuentes de
GL SC CM Fc 5% 1%
variaciòn
Bloques 2 11.62963 5.814815 0.3168 3.634 6.226 ns
Tratamientos 8 1970.2963 246.287 13.417 2.591 3.89 **
Especie 2 109.85185 54.92593 2.9922 3.634 6.226 ns
Porcion 2 1725.6296 862.8148 47.003 3.634 6.226 **
ExP 4 134.81481 33.7037 1.8361 3.007 4.773 ns
Error 16 293.7037 18.35648
Total 26 2275.6296

√CMErr
CV = Promedio total x 100

√18.35648148
CV = 75.2962963 x 100

CV = 5.69%

El Coeficiente de variabilidad nos indica que los datos son homogéneos, y que por lo tanto
podemos continuar con los análisis

93
c. Comparación de medias

Se encontró diferencias altamente significativas (con un 99% de certeza) entre los tratamientos
y entre las porciones, por lo que es necesario efectuar la prueba de Tukey para determinar cuál
es el mejor de los tratamientos, y cuál es la mejor porción.

Para efectuar la prueba de Tukey entre los tratamientos, en primer lugar hallamos el valor
crítico de Tukey de la siguiente forma:

18.35648148
W1% = 6.22 √ = 15.39
3

18.35648148
W5% = 5.03 √ = 12.44
3

Estableciendo las diferencias entre los promedios tenemos:

AP1 CP1 BP1 CP2 AP2 BP1 CP3 BP3 AP3


90.67 89.67 79.33 71.33 71.00 69.33 69.33 68.67 68.33
AP1 90.67 0.00 1.00 11.34 19.34 19.67 21.34 21.34 22.00 22.34
CP1 89.67 0.00 10.34 18.34 18.67 20.34 20.34 21.00 21.34
BP1 79.33 0.00 8.00 8.33 10.00 10.00 10.66 11.00
CP2 71.33 0.00 0.33 2.00 2.00 2.66 3.00
AP2 71.00 0.00 1.67 1.67 2.33 2.67
BP1 69.33 0.00 0.00 0.66 1.00
CP3 69.33 0.00 0.66 1.00
BP3 68.67 0.00 0.34
AP3 68.33 0.00

Efectuando los constrastes entre las diferencias de promedios y los valores críticos de
Tukey tenemos:

AP1 CP1 BP1 CP2 AP2 BP1 CP3 BP3 AP3

90.67 89.67 79.33 71.33 71.00 69.33 69.33 68.67 68.33


AP1 90.67 0.00 1.00 11.34 19.34 19.67 21.34 21.34 22.00 22.34

94
CP1 89.67 0.00 10.34 18.34 18.67 20.34 20.34 21.00 21.34
BP1 79.33 0.00 8.00 8.33 10.00 10.00 10.66 11.00
CP2 71.33 0.00 0.33 2.00 2.00 2.66 3.00
AP2 71.00 0.00 1.67 1.67 2.33 2.67
BP1 69.33 0.00 0.00 0.66 1.00
CP3 69.33 0.00 0.66 1.00
BP3 68.67 0.00 0.34
AP3 68.33 0.00

Se observa que los valores de la parte sombreada son superiores a los valores de Tukey al 1%
y al 5%, por lo tanto a estas celdas le correspondería dos asteriscos como señal de que existen
diferencias entre los tratamientos comparados.

Grupo
Tratamient Promedi 5% 1%
o AP o 90.67 a a
1
CP1 89.67 a b a b
BP1 79.33 a b c a b c
CP2 71.33 c c
AP 71.00 c c
2
BP1 69.33 c c
CP3 69.33 c c
BP3 68.67 c c
AP 68.33 c c
3
Se concluye, con un 99% de certeza, de que los tratamientos: AP1, CP1 y BP1 son
estadísticamente iguales, y que al mismo tiempo son superiores al resto de tratamientos.

De la misma forma efectuamos la prueba de Tukey para las porciones, donde los valores críticos de
Tukey son los siguientes:

18.35648148
W1% = 4.78 √ = 6.82
9

18.35648148
W5% = 3.65 √ = 5.21
9

Estableciendo las diferencias entre los promedios de las porciones tenemos:

P1 P2 P3
86.556 70.556 68.778
P1 86.556 0 16 17.778
P2 70.556 0 1.778
P3 68.778 0

95
Efectuando los constrastes entre las diferencias de promedios y los valores críticos de
Tukey tenemos:

P1 P2 P3
86.556 70.556 68.778
P1 86.556 0 16 17.778
P2 70.556 0 1.778
P3 68.778 0

Grupo
Porcion Promedio 5% 1%
a a
P2
P1 70.556
86.556 b b
P3 68.778 b b

Se encontró con un 99% de certeza que la porción 1 tiene un mejor efecto en el peso
de los peces.

A Bloque I Bloque II Bloque III Parcelas


D4 C B A C A B A C B B C
10 D1 D4 D1 D3 D1 D2 D4 D2 D3 D2 D1
25 24 12 27 9 20 18 23 15 18 24
D3
D2 D3 D3 D1 D4 D1 D2 D3 D1 D3 D4
15 20 13 11 26 14 11 22 22 18 16 25 Sub
D1 D4 D1 D4 D2 D2 D4 D1 D4 D4 D1 D3
12 29 13 14 25 22 29 17 16 19 17 27 Parcelas
D2 D3 D2 D2 D4 D3 D3 D3 D1 D2 D4 D2
13 32 28 8 23 16 23 11 23 19 20 26

Nótese que las parcelas y las subparcelas están totalmente randomizadas

96
Bloque I Bloque II Bloque III Bloque IV
C B A C A B A C B B C A
D D4 D D3 D D2 D D2 D3 D2 D D4
25
1 24 12
1 27 19 20 418 23 15 18 24
1 10
D2 D3 D3 D D4 D D2 D3 D D3 D4 D3
20 13 11 26
1 14 11
1 22 22 18
1 16 25 15
D D D4 D2 D2 D4 D D4 D4 D D3 D
429 13
1 14 25 22 29 17
1 16 19 17
1 27 12
1
D D2 D2 D4 D3 D3 D D D2 D4 D2 D2
332 28 8 23 16 23 311 23
1 19 20 26 13

Tot 106 78 45 101 61 83 68 84 71 71 102 50


Parcelas 229 245 223 223
Tot A= 224 B= 303 C= 393
Bloques D1 = 207 D2 = 244 D3 = 228 D4 = 241
Variedade
s
Distancias

Fuentes de Variacion Grados de libertad


Bloques r - 1 , (4 - 1) = 3
Variedades (V) n -1 , (3 - 1) = 2
Error (V) (n - 1)(r - 1), 2x3 = 6
PARCELAS (n x r) -1, 3x4-1 = 11
Densidades (D) n -1 , (4 - 1) = 3
Interaccion (VxD) (n - 1)(n - 1), 3x2 = 6
Error (D) n(n - 1)(r - 1), 3x3x3 = 27
SUBPARCELAS (n x n x r ) -1 , 3x4x4 -1 = 47

97
Ejemplo con R

Diseño con 2 Factores

En un experimento realizado con tres variedades de peces, se evaluo el efecto de tres


porciones de alimentos, para lo cual se utilizo un Diseño de Bloques Completos al Azar
con tres repeticiones y con arreglo factorial 3 x 3. En el cuadro se puede observar las
ganancias de peso de los peces al final del experimento.
Especie Porcion I II III
p1 95 90 87
A p2 67 68 78
p3 74 64 67
p1 74 85 79
B p2 71 68 69
p3 68 73 65
p1 87 93 89
C p2 70 75 69
p3 67 70 71

Ordenando los datos tenemos:

A B C
Bloque
p1 p2 p3 p1 p2 p3 p1 p2 p3
I 95 67 74 74 71 68 87 70 67
II 90 68 64 85 68 73 93 75 70
III 87 78 67 79 69 65 89 69 71

Acondicionando los datos para R, tal como se aprecia en el anexo 5.

22
a. Ordenando los datos
canal<-odbcDriverConnect()
peso<-sqlFetch(canal,"peso")
str(peso)

'data.frame': 27 obs. of 4 variables:


$ Especie: Factor w/ 3 levels "A","B","C": 1 1 1 1 1 1 1 1 1 2 ...
$ Porcion: Factor w/ 3 levels "p1","p2","p3": 1 1 1 2 2 2 3 3 3 1 ...
$ Bloque : Factor w/ 3 levels "I","II","III": 1 2 3 1 2 3 1 2 3 1 ...
$ Peso : num 95 90 87 67 68 78 74 64 67 74 ...

b. Análisis de Variancia
attach(peso)
modelo<-aov(Peso~Bloque+Especie+Porcion+Especie*Porcion)
summary(modelo)

cv.model(modelo)
[1] 5.690116

Interpretación del ANVA

El Coeficiente de variabilidad nos indica que los datos son homogéneos, y que por lo tanto podemos
continuar con los análisis
Se encontró diferencias altamente significativas (con un 99% de certeza) entre las porciones, por lo que
es necesario efectuar la prueba de Tukey para determinar cuál es la mejor porción.
Asi mismo, con un 90% de probabilidades también se encontró diferencias entre las especies.

23
c. Comparación de medias

Prueba de Tukey al 5% para Porciones


> HSD.test(Peso,Porcion,16,18.36)

Study: HSD Test for Peso

Mean Square Error: 18.36

Porcion, means Peso std.err replication


p1 86.55556 2.199186 9
p2 70.55556 1.214623 9
p3 68.77778 1.152025 9

alpha: 0.05 ; Df Error: 16


Critical Value of Studentized Range: 3.649139
Honestly Significant Difference: 5.212013

Means with the same letter are not significantly different.

Groups, Treatments and means


a p1 86.55556
b p2 70.55556
b p3 68.77778

Interpretación de la Prueba de Tukey al 5% para Porciones

Se encontró que la porción 1 es la que produce mejor ganancia de peso entre los peces al
final del experimento.

Prueba de Tukey al 1% para Porciones


HSD.test(Peso,Porcion,16,18.36, alpha=0.01)

Study: HSD Test for Peso


Mean Square Error: 18.36
Porcion, means Peso std.err replication
p1 86.55556 2.199186 9
p2 70.55556 1.214623 9
p3 68.77778 1.152025 9

alpha: 0.01 ; Df Error: 16


Critical Value of Studentized Range: 4.785545
Honestly Significant Difference: 6.835126

Means with the same letter are not significantly different.


Groups, Treatments and means
a p1 86.55556
b p2 70.55556
b p3 68.77778

Interpretación de la Prueba de Tukey al 1% para Porciones

Se encontró que la porción 1 es la que produce mejor ganancia de peso entre los peces al
final del experimento.

24
Prueba de Tukey al 15% para Especies
HSD.test(Peso,Especie,16,18.36, alpha=0.15)

Study: HSD Test for Peso

Mean Square Error: 18.36


Especie, means Peso std.err replication
A 76.66667 3.822448 9
B 72.44444 2.082407 9
C 76.77778 3.336573 9

alpha: 0.15 ; Df Error: 16


Critical Value of Studentized Range: 2.796621
Honestly Significant Difference: 3.994374

Means with the same letter are not significantly different.


Groups, Treatments and means
a C 76.77778
a A 76.66667
b B 72.44444

Interpretación de la Prueba de Tukey al 15% para especies

Se encontró, con un 85% de probabilidades, que la Especie C es la que tiene mejores


ganancias de peso entre los peces al final del experimento.

25
Ejemplo 2

Diseño con 3 Factores

El presente ejemplo de fertilización consiste en estudiar la respuesta de dos diferentes


niveles de NPK en el cultivo de yuca amarilla. Los niveles adoptados son:

Para N. (nitrógeno): N 60 y N 120


Para P. (fosforo) : P 60 y P 120
Para K. (potasio) : K 60 y K 120

El ensayo fue realizado adoptando el diseño de Bloques Completos Randomizados, con


cinco repeticiones, usando parcelas de 10m x 10m, con surcos distanciados a 2m, y
distanciamiento de las plantas a 1m. Los rendimientos fueron evaluados en los tres surcos
centrales de cada parcela, para eliminar el efecto de bordes, que ensayos de fertilización
tiene mucha preponderancia. Los resultados están dados en kg/parcela neta cosechada.

N60 N120
P60 P120 P60 P120
k60 k120 k60 k120 k60 k120 k60 k120
i ii 37.6 41.15 41.2 43.55 37.55 38.7 36.65 39.45
iii 36.85 41.95 42.65 44.25 38.15 39.9 39.55 43.15
iv 35.7 39.3 41.35 43.6 37.9 43.15 37.95 42.15
v 36.35 34.65 39.3 44.8 41.85 36.4 32.05 44.45
37.85 37.1 39.05 35.65 37.7 35.55 35.95 39.45

Ordenando los datos (ver anexo 6) del problema planteado para que R pueda reconocerlo
fácilmente y para iniciar los análisis de variancia y pruebas de Tukey respectivamente

Conectando con Excel con R


canal<-odbcDriverConnect( )
fertilizantes<-sqlFetch(canal,"fertilizantes")
str(fertilizantes)

'data.frame': 40 obs. of 5 variables:


$ Bloque : Factor w/ 5 levels "i","ii","iii",..: 1 2 3 4 5 1 2 3 4 5 ...
$ Nitrogeno : Factor w/ 2 levels "N120","N60": 2 2 2 2 2 2 2 2 2 2 ...
$ Fosforo : Factor w/ 2 levels "P120","P60": 2 2 2 2 2 2 2 2 2 2 ...
$ Potasio : Factor w/ 2 levels "k120","k60": 2 2 2 2 2 1 1 1 1 1 ...
$ Rendimiento: num 37.6 36.9 35.7 36.4 37.9 ...

26
Análisis de Variancia
attach(fertilizantes)

modelo<-aov(Rendimiento~Bloque + Nitrogeno + Fosforo + Potasio +


+ Nitrogeno*Fosforo + Nitrogeno*Potasio + Nitrogeno*Fosforo*Potasio)

summary(modelo)

cv.model(modelo)
[1] 5.845661

Interpretación del ANVA

El Coeficiente de variabilidad nos indica que los datos son homogéneos, y que por lo tanto
podemos continuar con los análisis

Se encontró diferencias altamente significativas (con un 99% de certeza) entre las dosis
de Fosforo y de Potasio, por lo que es necesario efectuar la prueba de Tukey para
determinar cuál es la mejor dosis de Fosforo, y cuál es la mejor dosis de Potasio.

También se encontró diferencias altamente significativas en la interacción NxP


con un 95% de probabilidades.

Asi mismo se encontró diferencias significativas en la interacción NxPxK con


un 90% de probabilidades.

27
Prueba de Tukey para el Fosforo al 5%
HSD.test(Rendimiento,Fosforo,28,5.275)

Study: HSD Test for Rendimiento

Mean Square Error: 5.275 .


Fosforo, means Rendimiento std.err replication
P120 40.3100 0.7703861 20
P60 38.2675 0.5172457 20

alpha: 0.05 ; Df Error: 28


Critical Value of Studentized Range: 2.896885
Honestly Significant Difference: 1.487742

Means with the same letter are not significantly different.

Groups, Treatments and means


a P120 40.31
b P60 38.2675

Interpretación de la Prueba de Tukey al 5% para el Fosforo

Se encontró, con un 95% de probabilidades, que el fosforo al nivel de 120 produce mejores
rendimientos en el cultivo de arroz.

Prueba de Tukey para el Potasio al 5%


HSD.test(Rendimiento,Potasio,28,5.275)

Study: HSD Test for Rendimiento

Mean Square Error: 5.275


Potasio, means Rendimiento std.err replication
k120 40.4175 0.7328502 20
k60 38.1600 0.5473933 20

alpha: 0.05 ; Df Error: 28


Critical Value of Studentized Range: 2.896885

Honestly Significant Difference: 1.487742

Means with the same letter are not significantly different.

Groups, Treatments and means


a k120 40.4175
b k60 38.16

Interpretación de la Prueba de Tukey al 5% para el Fosforo

Se encontró, con un 95% de probabilidades, que el potasio al nivel de 120 produce mejores
rendimientos en el cultivo de arroz.

28
Prueba de Tukey para la interacción NxP al 5%
> HSD.test(Rendimiento,Nitrogeno:Fosforo,28,5.275)

Study: HSD Test for Rendimiento

Mean Square Error: 5.275


Nitrogeno:Fosforo, means Rendimiento std.err replication
N120:P120 39.080 1.1629512 10
N120:P60 38.685 0.7426697 10
N60:P120 41.540 0.9039973 10
N60:P60 37.850 0.7343932 10

alpha: 0.05 ; Df Error: 28


Critical Value of Studentized Range: 3.861244
Honestly Significant Difference: 2.80439

Means with the same letter are not significantly different.

Groups, Treatments and means


a N60:P120 41.54
a b N120:P120 39.08
b N120:P60 38.685
b N60:P60 37.85

Interpretación de la Prueba de Tukey al 5% para la interacción NxP

Se encontró, con un 95% de probabilidades, que las combinaciones de N60 x P120, y


N120 x P120 producen mejores rendimientos en el cultivo de arroz.

Prueba de Tukey para la interacción NxP al 1%


HSD.test(Rendimiento,Nitrogeno:Fosforo,28,5.275,alpha=0.01)

Study: HSD Test for Rendimiento

Mean Square Error: 5.275


Nitrogeno:Fosforo, means Rendimiento std.err replication
N120:P120 39.080 1.1629512 10
N120:P60 38.685 0.7426697 10
N60:P120 41.540 0.9039973 10
N60:P60 37.850 0.7343932 10

alpha: 0.01 ; Df Error: 28


Critical Value of Studentized Range: 4.829593
Honestly Significant Difference: 3.507695

Means with the same letter are not significantly different.

Groups, Treatments and means


a N60:P120 41.54
a b N120:P120 39.08
a b N120:P60 38.685
b N60:P60 37.85

29
Interpretación de la Prueba de Tukey al 1% para la interacción NxP

Se encontró, con un 95% de probabilidades, que las combinaciones de N60 x P120,


N120 x P120 y N120 x P60 producen mejores rendimientos en el cultivo de arroz.

Prueba de Tukey para la interacción NxPxK al 5%


HSD.test(Rendimiento,Nitrogeno:Fosforo:Potasio,28,5.275)

Study: HSD Test for Rendimiento

Mean Square Error: 5.275


Nitrogeno:Fosforo:Potasio, means Rendimiento std.err r eplica tion
N120:P120:k120 41.73 0.9997000 5
N120:P120:k60 36.43 1.2551494 5
N120:P60:k120 38.74 1.3499444 5
N120:P60:k60 38.63 0.8112644 5
N60:P120:k120 42.37 1.6956267 5
N60:P120:k60 40.71 0.6766461 5
N60:P60:k120 38.83 1.3379649 5
N60:P60:k60 36.87 0.3957903 5

alpha: 0.05 ; Df Error: 28


Critical Value of Studentized Range: 4.624789
Honestly Significant Difference: 4.750269

Means with the same letter are not significantly different.

Groups, Treatments and means


a N60:P120:k120 42.37
a N120:P120:k120 41.73
a b N60:P120:k60 40.71
a b N60:P60:k120 38.83
a b N120:P60:k120 38.74
a b N120:P60:k60 38.63
b N60:P60:k60 36.87
b N120:P120:k60 36.43

Interpretación de la Prueba de Tukey al 5% para la interacción NxPxK

Se encontró, con un 95% de probabilidades, que las combinaciones:


N60xP120xk120
N120xP120xk120
N60xP120xk60
N60xP60xk120
N120xP60xk120
N120xP60xk60
producen mejores rendimientos en el cultivo de arroz.

30
Prueba de Tukey para la interacción NxPxK al 1%

HSD.test(Rendimiento,Nitrogeno:Fosforo:Potasio,28,5.275,alpha=0.01)

Study: HSD Test for Rendimiento

Mean Square Error: 5.275


Nitrogeno:Fosforo:Potasio, means Rendimiento std.err re plicati on
N120:P120:k120 41.73 0.9997000 5
N120:P120:k60 36.43 1.2551494 5
N120:P60:k120 38.74 1.3499444 5
N120:P60:k60 38.63 0.8112644 5
N60:P120:k120 42.37 1.6956267 5
N60:P120:k60 40.71 0.6766461 5
N60:P60:k120 38.83 1.3379649 5
N60:P60:k60 36.87 0.3957903 5

alpha: 0.01 ; Df Error: 28


Critical Value of Studentized Range: 5.578165
Honestly Significant Difference: 5.729511

Means with the same letter are not significantly different.

Groups, Treatments and means


a N60:P120:k120 42.37
a b N120:P120:k120 41.73
a b N60:P120:k60 40.71
a b N60:P60:k120 38.83
a b N120:P60:k120 38.74
a b N120:P60:k60 38.63
a b N60:P60:k60 36.87
b N120:P120:k60 36.43

Interpretación de la Prueba de Tukey al 5% para la interacción NxPxK

Se encontró, con un 95% de probabilidades, que las combinaciones:


N60xP120xk120
N120xP120xk120
N60xP120xk60
N60xP60xk120
N120xP60xk120
N120xP60xk60
N60xP60xk60
producen mejores rendimientos en el cultivo de arroz.

31

También podría gustarte