You are on page 1of 32

INSTITUTO TECNOLÓGICO DE CAMPECHE

INGENIERIA INDUSTRIAL

Tarea NUM: 1 NOMBRE DEL TRABAJO: investigación


conceptual
Unidad NUM: 3 NOMBRE DE LA UNIDAD: diseño de
experimentos de un factor

Nombre del alumno:


Materia:
Estadística inferencial 2
Maestro:
Bocos Patrón Ramón Agustín
Grupo:
MI4

25/03/2019
Contenido
Introducción ........................................................................................................................................ 3
Diseños de experimentos hoy ....................................................................................................... 4
Breve historia sobre el diseño de experimentos ...................................................................... 6
Definiciones básicas de diseño de experimentos ..................................................................... 6
Etapas en el diseño de experimentos .......................................................................................... 8
Consideraciones practicas acerca del uso de métodos estadísticos ................................... 10
Principios básicos ......................................................................................................................... 13
Clasificación y selección de diseños de experimentos ........................................................... 15
Experimento de un solo factor completamente aleatorizado .............................................. 16
Ejemplo........................................................................................................................................ 16
Términos utilizados ...................................................................................................................... 17
Análisis de varianza (andeva o anova)...................................................................................... 17
Modelo lineal .............................................................................................................................. 18
Diseño experimental completamente aleatorizado ............................................................... 18
Modelo de efectos fijos ................................................................................................................. 20
Modelo de efectos aleatorios ...................................................................................................... 20
La suma total de cuadrados ......................................................................................................... 21
La tabla de andeva......................................................................................................................... 25
El diseño desbalanceado .............................................................................................................. 28
Intervalo de confianza para la diferencia de medias de 2 tratamientos ............................ 29
Análisis residuales y verificación del modelo ......................................................................... 29
Pruebas sobre medias de tratamientos individuales ............................................................ 30
Comparación grafica de medias ............................................................................................. 30
Referencias ..................................................................................................................................... 32
Videos de apoyo al tema........................................................................................................... 32

2
Introducción
El objetivo del diseño de experimentos es estudiar si cuando se utiliza un determinado
tratamiento se produce una mejora en el proceso o no. Para ello se debe experimentar aplicando
el tratamiento y no aplicándolo. Si la variabilidad experimental es grande, sólo se detectará la
influencia del uso del tratamiento cuando éste produzca grandes cambios en relación con el error
de observación. La metodología del diseño de experimentos estudia cómo variar las condiciones
habituales de realización de un proceso empírico para aumentar la probabilidad de detectar

3
cambios significativos en la respuesta; de esta forma se obtiene un mayor conocimiento del
comportamiento del proceso de interés.

Diseños de experimentos hoy


Los escenarios que rodean a las industrias hoy, en día en un mundo globalizado donde los
adelantos tecnológicos y científicos están en constante evolución, hacen que el nivel de
calidad de los productos y servicios sea cada vez mayor.
En la actualidad uno de los factores claves para el éxito de una industria, es hacer uso de toda
de su capacidad de conocimiento y aprendizaje, así como de su experiencia. La
experimentación en las industrias es uno de los elementos que más pueden contribuir al

4
aprendizaje y a la mejora de los productos y procesos.
La aplicación del Diseño de Experimentos (DoE) se presenta como una herramienta efectiva
para entender y optimizar los procesos y productos en la industria. La metodología estadística
por excelencia para optimizar la experimentación se conoce como Diseño de Experimentos.
Se define simplemente como un método para aplicar sistemáticamente la estadística al
proceso de experimentación. Se puede definir como la realización de un conjunto de pruebas
en las cuales se realizan cambios voluntarios a los parámetros de control de un proceso o
sistema, cuyo objetivo es observar e identificar las razones de los cambios en la variable de
estudio o respuesta y cuantificarla.
Los experimentos en la industria moderna son más complicados, porque son muchos los
factores que son susceptibles de controlarse y que afectan a los productos y/o procesos, de
aquí que son muchas combinaciones de dichos factores que se deben probar para obtener
resultados válidos y consistentes.
En la industria, el diseño de experimentos suele aplicarse básicamente en dos áreas: el diseño
y la mejora de procesos y productos. Pero la mayoría de los problemas industriales, están
condicionadas por el tiempo y el presupuesto, lo que supone una limitación importante a la
hora de experimentar. Por eso todas las industrias o empresas deberían intentar responder
antes de realizar sus experimentos la siguiente pregunta, ¿Cómo puedo obtener de los
experimentos la mayor información posible y de la manera más eficiente?
El objetivo del ensayo es presentar una breve descripción teórica del proceso de planificación
del diseño de los experimentos y los modelos estadísticos empleados en el Diseño de
Experimentos.

Palabras clave: Estadística, Diseño de Experimentos, Media, Varianza, Análisis de la


Varianza (ANOVA), Diseño de bloques completos, Diseños Factoriales, Diseño factorial 2k,
Diseños Anidados y Superficies de Respuesta.

todas nuestras actividades asociadas con planear y realizar estudios de investigación tienen
implicaciones estadísticas, es por ello que prácticamente en todos los campos de estudio y
empresariales se llevan a cabo experimentos, por lo general para descubrir algo acerca de un
proceso o sistema en particular.
En ingeniería, la experimentación desempeña un papel importante en el diseño de nuevos
productos, el desarrollo de procesos de manufactura y el mejoramiento de procesos. El
objetivo en muchos casos sería desarrollar un proceso robusto, es decir, un proceso que sea
afectado en forma mínima por fuentes de variabilidad externas [1].
Como ejemplo de un experimento, suponga que un ingeniero químico tiene interés en los
resultados obtenidos por las mediciones de los promedios del metal pesado cadmio por 5
diferentes laboratorios, los resultados de cada laboratorio presentan cierta variación, esta
variación puede deberse al azar o a que los laboratorios tienen métodos diferentes de análisis
que dan resultados significativamente diferentes. El diseño de experimentos es una técnica
estadística que permite decidir cuál de estas dos conjeturas es la verdadera disminuyendo la
probabilidad de cometer un error.
El "Diseño de Experimentos" es una técnica estadística sistemática cuyo objetivo es realizar
una serie de pruebas en las que se inducen cambios deliberados para averiguar si
determinados factores influyen en la variable de interés o de estudio y, si existe influencia de
algún factor en el proceso o producto, cuantificarla.

5
Breve historia sobre el diseño de experimentos
El diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de
un efecto dentro de un estudio experimental. En un diseño experimental se manipulan
deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en
otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué
variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en
qué orden para poder establecer con un grado de confianza predefinido la necesidad de una
presunta relación de causa-efecto.

El diseño experimental encuentra aplicaciones en la industria, la agricultura, la mercadotecnia, la


medicina, la ecología, las ciencias de la conducta, etc. constituyendo una fase esencial en el
desarrollo de un estudio experimental.

Los diseños factoriales fueron utilizados en el siglo XIX por Jhon Bennet Lawes y Henry J. Gilbert de
la Estación experimental de Rothamsted. Ronald Fisher discutió en 1926 que los diseños
«complejos», como diseños factoriales, eran más eficientes que estudiando un factor a la vez.[2]
Fisher escribió: «ningún aforismo se repite tan frecuentemente respecto de las pruebas de campo,
que aquel de que a la Naturaleza debemos hacerle pocas preguntas, o, idealmente, hacérselas de
a una. Quien escribe es un convencido de que este punto de vista está totalmente equivocado.»
Un diseño factorial permite el efecto de varios factores e incluso interacciones entre ellas que se
determinarán con el mismo número de ensayos que son necesario determinar de los efectos por sí
mismo con el mismo grado de exactitud.

Yates realizó importantes contribuciones significativas hechas, particularmente en el análisis de


diseños, por Análisis de Yates. El término factorial no se pudo haber utilizado en la impresión antes
de 1935, cuando Fisher la utilizó en su libro El diseño de experimentos.

Definiciones básicas de diseño de experimentos


El diseño de experimentos es altamente efectivo para aquellos procesos, que su rendimiento se ve
afectado por varios factores. Con esta técnica se puede conseguir entre otras cosas, mejorar el
rendimiento de un proceso, reducir la variabilidad o los costos de producción, así como aumentar
la calidad de los productos o servicios [1].
En general los experimentos se usan para estudiar el desempeño de procesos y sistemas. El
proceso o sistema puede representarse como se muestra en la figura 1. El proceso puede por lo
general visualizarse como una combinación de máquinas, métodos, personas u otros recursos que
transforman cierta entrada (con frecuencia cierto material) en una salida que tiene una o más
respuestas observables. Algunas variables del proceso x1, x2,..., xn son controlables, mientras que
otras z1, z2,...,zm son no controlables [2].

6
Figura 1. Modelo general de un proceso o sistema

Los objetivos del diseño de experimentos podrían comprender los siguientes puntos:

 Determinar cuáles son la variables que tiene mayor influencia sobre la respuesta y.
 Determinar cuál es el ajuste de las x que tiene mayor influencia para que y esté casi
siempre cerca del valor nominal deseado.
 Determinar cuál es el ajuste de las x que tiene mayor influencia para que la variabilidad
de y sea reducida.
 Determinar cuál es el ajuste de las x que tiene mayor influencia para que los efectos de las
variables z1, z2,...,zmsean mínimos[2].

El diseño experimental es una herramienta de importancia fundamental en el ámbito industrial


(ingeniería) e incluso en las empresas de servicio para mejorar el desempeño de un proceso de
manufactura o servicio. También tiene múltiples aplicaciones en el desarrollo de nuevos productos
y procesos [2]. El diseño de experimentos se puede utilizar en las industrias para:

 Mejorar los procesos, ya sea mejorando su eficiencia, su confiabilidad o su rendimiento.


 Asistir en la solución problemas.
 Aprender de los procesos y sus fallos.
 Establecer relaciones de causa-efecto entre las entradas (input) de un proceso y sus
salidas (output).
 Identificar los factores que tiene el mayor impacto y el menor en los procesos y/o
productos.
 Lograr una producción de productos que cumplan con las especificaciones que sean a su
vez robustos a ruidos externos.
 Establecer una región (o ventana) del proceso donde unos factores pueden operar,
averiguando la sensibilidad al cambio de algunos factores en la respuesta.
 Fijar especificaciones y tolerancias lógicas para productos y procesos.
 Obtener una ecuación polinómicas que modele el comportamiento de la respuesta de un
proceso en una región de variación de los factores.

7
 Verificar si la solución adoptada para mejorar un proceso, realmente obtiene los
resultados esperados.

Etapas en el diseño de experimentos


Los pasos a seguir dentro de un diseño de experimentos son los siguientes:

1.-Identificación del enunciado del problema: Una enunciado claro del problema
contribuye sustancialmente para alcanzar una mejor comprensión de los fenómenos bajo
estudio y la solución final del problema.

Indicamos al inicio del proceso una situación inicial como un hecho real que tenemos
la sospecha que está relacionado con el funcionamiento de las variables que vamos a
estudiar, se menciona una Hipótesis sobre nuestro proceso.

Como resultado de la experiencia previa tenemos ciertos conocimientos sobre el proceso


por lo que establecemos ciertos criterios mas o menos comprobados por un análisis
experimental repetitivo o histórico para de cierta manera aprobar dicha hipótesis.

Más adelante el método nos proporcionará los resultados concluyentes para establecer si
la hipótesis inicial es válida o es nula.

Enunciar el problema por parte del sujeto que conoce el problema requiere expresarlo
en forma concreta, considerándolo en términos de una oración simple o compuesta
(sujetoverbo-predicado) donde quedan expresadas las variables del proceso.

2. Elección de los factores, los niveles y los rangos:

Los factores pueden clasificarse en factores potenciales de diseño y factores perturbadores.

Los factores potenciales del diseño cuentan con factores que se mantienen constantes,
y factores que se permite variar. Estos factores de diseño estarán contenidos en el
experimento.

Los factores constantes pueden tener cierto efecto sobre la respuesta, pero no son de
interés, por lo que se mantendrán fijos. Los que se permite variar son aquellos en los que se
ignora su variabilidad.

Por lo que serán los factores que estudiaremos para comprender esa variación y
establecer patrones que nos ayuden a predecir esa variabilidad.

Los factores perturbadores pueden tener efectos considerables que deben tomarse en
cuenta, pero no hay interés en ellos en el contexto del experimento, se clasifican como
controlables, no controlables y de ruido.

8
Una vez que se han seleccionado los factores del diseño, se debe elegir los rangos en los
que hará variar estos factores, así como los niveles específicos con los que se realizarán
las corridas.

3. Selección de variables de respuesta: El experimentador deberá tener la certeza de que


la variable de respuesta proporciona en realidad información útil acerca del proceso bajo
estudio

4. Elección del diseño experimental: Implica la consideración del tamaño de la muestra,


la selección de un orden de corridas adecuado y la determinación de si entran en juego o no
la formación de bloques u otras restricciones para la aleatorización.

5. Realización del experimento: Monitorear el proceso para asegurar la ejecución conforme


a planeación. Conveniente realizar corridas piloto.

6. Análisis estadístico de los datos: Es muy útil presentar los resultados en forma de
modelo empírico.

7. Conclusiones y recomendaciones: El experimentador debe sacar conclusiones prácticas


y recomendar un curso de acción

Recomendaciones generales para quien realiza un proyecto experimental.

Uso de conocimientos no estadísticos del problema

Mantener el diseño y análisis tan simple como sea posible

Tener presente la diferencia entre significación práctica y significación estadística

Experimentación es iterativa.

Es un gran error diseñar un solo experimento comprensivo y extenso al principio de


un estudio.

9
Un experimento exitoso requiere conocer los factores importantes, los rangos en los
que deberán hacerse variar estos factores, el número apropiado de niveles que deberán
usarse y las unidades de medición apropiadas para estas variables.

No deberá invertirse más del 25% de los recursos en el primer experimento.

Consideraciones practicas acerca del uso de métodos estadísticos


A. EXPERIMENTOS CON UN SOLO FACTOR: ANÁLISIS DE LA VARIANZA (ANOVA)

El análisis de varianza sirve para verificar si hay diferencias estadísticamente significativas entre
medias cuando tenemos más de dos muestras o grupos en el mismo planteamiento. El
procedimiento para comparar estos valores está basado en la varianza global observada en los
grupos de datos numéricos a comparar. Típicamente, el análisis de varianza se utiliza para asociar
una probabilidad a la conclusión de que la media de una población o tratamiento es distinta de la
media de otra población.

Un ejemplo para este tipo de diseño sería el siguiente: Supongamos que un ingeniero de
desarrollo de productos desea maximizar la resistencia a la tensión de una nueva fibra sintética
que se utilizará para fabricar camisas. Por experiencia, parece que la resistencia (o fortaleza) se ve
influida por el % de algodón presente en la fibra. Ante esta situación, el ingeniero decide tomar
cinco ejemplares muestras para cinco diferentes niveles de % de algodón y medir la fortaleza de
las fibras así producidas. El análisis de la varianza nos ayudará a responder las siguientes
cuestiones: a) ¿Influye el % de algodón en la fortaleza de la fibra fabricada? y b) Si es así, ¿qué
niveles de % de algodón son similares y cuáles no?

El objetivo del análisis de la varianza (ANOVA) se basa en la descomposición de la variabilidad total


en dos partes, una parte debida a la variabilidad entre las distintas poblaciones o tratamientos
(variabilidad entre grupos o variabilidad explicada por el diseño) y otra parte que puede
considerarse como la variabilidad intrínseca de las observaciones (variabilidad dentro de los
grupos o residual). El método estadístico de ANOVA se puede encontrar en la bibliografía [2]y [3].

B. DISEÑO DE BLOQUES COMPLETOS

En cualquier experimento, la variabilidad que surge de un factor perturbador puede afectar a los
resultados. Cuando el factor perturbador es conocido y controlable puede utilizarse la técnica
"diseño de bloques completos", en este tipo de diseño de experimentos se consideran tres fuentes
de variabilidad: el factor de tratamientos, el factor de bloques y el error aleatorio ,es decir, se
tienen tres posibles "culpables" de la variabilidad presente en los datos. este método estadístico
agrupa las unidades experimentales en bloques para comparar tratamientos en un medio más
homogéneo, el cual le permite eliminar de manera sistemática el factor perturbador sobre las
comparaciones estadísticas entre los tratamientos.

10
El uso de bloques estratifica las unidades experimentales en grupos homogéneos, o unidades
parecidas. Una buena elección de los criterios de bloquización disminuye la variación entre las
unidades dentro de los bloques en comparación de las unidades de diferentes bloques, las
categorías generales de buenos criterios son: a) proximidad (parcelas adyacentes), b)
características físicas (edad o peso), c) tiempo y d) administración de tareas en el experimento.

En la industria los factores de bloqueo que aparecen en la práctica son: turno, lote, día, tipo de
material, línea de producción, operador, máquina, método, etc.

Un ejemplo para este tipo de diseño sería el siguiente: Un ingeniero de producción investiga el
efecto de cuatro métodos de producción A, B, C y D, sobre el tiempo de producción en minutos. En
primera instancia la estrategia experimental es aplicar cuatro veces los cuatro métodos de
producción en orden completamente aleatorio (las 16 pruebas en orden aleatoria), se supone que
de acuerdo a como se ha hecho el estudio, además del método de producción, los
experimentadores se dan cuenta que hay cuatro operadores y consideran que esto puede afectar
de manera significativa los tiempos de producción (variable respuesta), y por ende la comparación
de los métodos, entonces debe utilizar el diseño en bloques completos.

El objetivo es tener comparaciones precisas entre los tratamientos de los estudios de


investigación. la bloquización es un medio para reducir y controlar la varianza del error
experimental con el fin de lograr una mayor precisión.

C. DISEÑOS FACTORIALES

En muchos experimentos interviene el estudio de los efectos de dos o más factores. En general, los
diseños factoriales son lo más eficientes para este tipo de experimentos. Por diseño factorial se
entiende que en cada ensayo o réplica completa del experimento se investigan todas las
combinaciones posibles de los niveles de los factores. Por ejemplo si el factor A tiene a niveles y el
factor B tiene b niveles, cada réplica contiene todas las ab combinaciones de los tratamientos.
Cuando los factores están incluidos en un diseño factorial, es común decir que están cruzados.

La necesidad de estudiar conjuntamente varios factores obedece a la posibilidad de que el efecto


de un factor cambie según los niveles de otros factores, esto es, que los factores interactúen, o
exista interacción. También se utilizan los arreglos factoriales cuando se quiere optimizar la
respuesta o variable dependiente, esto es, se quiere encontrar la combinación de niveles de los
factores que producen un valor óptimo de la variable dependiente.

El efecto de un factor se define como el cambio en la respuesta producido por un cambio del nivel
de un factor. con frecuencia se le llama efecto principal porque se refiere a los factores de interés
primario en el experimento.

D. DISEÑO FACTORIAL 2K

Los diseños factoriales se usan ampliamente en experimentos que incluyen varios factores cuando
es necesario estudiar el efecto conjunto de los factores sobre un respuesta. Sin embargo, hay

11
varios casos especiales del diseño factorial general que son importantes debido a su uso
generalizado ene le trabajo de investigación y porque constituyen las bases de otros diseños de
gran valor práctico.

El más importante de estos casos especiales es el de k factores, cada uno con sólo dos niveles.
estos niveles pueden ser cuantitativos, como dos valores de temperatura, presión o tiempo, o bien
cualitativos, como dos máquinas, dos operadores, los niveles alto y bajo de un factor, o quizá la
presencia o ausencia de un factor. Una réplica completa de este diseño requiere 2 x 2 x... x 2 = 2k
observaciones y se le llama diseño factorial 2k.

El diseño 2k es de particular utilidad en las etapas iniciales del trabajo experimental, cuando
probablemente se estén investigando muchos factores. Este diseño proporciona el menor número
recorridas con las que pueden estudiarse kfactores en un diseño factorial completo. Por
consiguiente, estos diseños se usan ampliamente en los experimentos de tamizado o selección de
factores.

Considérese una investigación llevada a cabo para estudiar el efecto que tiene la concentración de
un reactivo y la presencia de un catalizador sobre el tiempo de reacción de un proceso químico.
Sea la concentración del reactivo el factor A con dos niveles de interés, 15% y 20%. El catalizador
constituye el factor B; el nivel alto o superior denota el uso de dos sacos de catalizador y el nivel
bajo o inferior denota el uso de un solo saco [2].

E. DISEÑOS ANIDADOS

En algunos experimentos con factores múltiples, los niveles de uno de los factores (por ejemplo el
factor B) son similares pero no idénticos a los diferentes niveles de otro factor (por ejemplo A) [2].
En algunos casos el experimentador no puede combinar todos los niveles de un factor con todos
los niveles de otro, es decir, no se pueden realizar todos los posibles tratamientos que aparecen al
cruzar los factores.

Ejemplo. Supongamos que en una licenciatura de una universidad se estudia el porcentaje de


aprobados en una materia, en los grupos de mañana y de tarde. Por la mañana imparten la
asignatura dos personas y por la tarde tres. Cada persona da clase a tres grupos y se supone que
estos son réplicas (no son fuente de variación).

Se dice que un factor B está anidado en otro factor A (o que sus niveles están anidados en los de
A) cuando cada nivel del factor B aparece asociado a un único nivel del factor A. Se denota como B
⊂ A. Un diseño anidado es un diseño que posee dos o más factores tal que:

• Hay un sólo factor, el cual no se encuentra anidado con ningún otro factor, sea este F1;
que representa la primera jerarquía entre todos los factores que existen.

• Existe un segundo factor F2; el cual se encuentra dentro de F1: Diremos F2 es el factor que
representa la segunda jerarquía entre todos los factores que existen.

12
• El próximo factor en caso que exista (F3) debe encontrarse anidado dentro del factor F2:
Diremos F3 es el factor que representa la tercera jerarquía entre todos los factores que existan [6].

F. SUPERFICIES DE RESPUESTA

El Método de superficies de respuesta es una colección de técnicas matemáticas y estadísticas


útiles en el modelo y el análisis de problemas en los que una respuesta de interés recibe la
influencia de diversas variables, donde el objetivo es optimizar esta respuesta y, a continuación,
determinar el modelo matemático que mejor se ajusta a los datos obtenidos.

En la mayoría de los problemas del método de superficie de respuesta, la forma de relación entre
la respuesta y las variables independientes es desconocida. Por lo tanto, el primer paso es
encontrar una proximidad adecuada de la verdadera relación funcional entre y y el conjunto de
variables independientes. Por lo general se emplea un polinomio de orden inferior en alguna
región de las variables independientes. Si la respuesta está bien modelada por una función lineal
de las variables independientes, entonces la función de aproximación es un modelo de primer
orden. Si hay curvatura en el sistema, entonces debe usarse un polinomio de orden superior, un
modelo de segundo orden.

En casi todos los problemas de superficie de respuestas se usa uno de los modelos ya sea de
primer orden o segundo orden. Desde luego es probable que un modelo polinomial sea una
aproximación razonable de la verdadera relación funcional en el espacio completo de las variables
independientes.

El método de mínimos cuadrados se usa para estimar los parámetros de los polinomios de
aproximación. Después se realiza el análisis de la superficie de respuesta utilizando la superficie
ajustada. Si la superficie ajustada es una aproximación adecuada de la verdadera función de la
respuesta, entonces el análisis de la superficie ajustada será un equivalente aproximado del
análisis del sistema real.

Principios básicos
Principios básicos en el diseño de experimentos.
Al planificar un experimento hay tres tres principios básicos que se deben tener siempre en
cuenta:
— El principio de aleatorización.
— El bloqueo.
— La factorización del diseño.
Los dos primeros (aleatorizar y bloquear) son estrategias eficientes para asignar los tratamientos a
las unidades experimentales sin preocuparse de qué tratamientos considerar. Por el contrario, la
factorización del diseño define una estrategia eficiente para elegir los tratamientos sin considerar
en absoluto como asignarlos después a las unidades experimentales.

13
Aleatorizar
“Aleatorizar todos los factores no controlados por el experimentador en el diseño experimental y
que puden influir en los resultados serán asignados al azar a las unidades experimentales”.
Ventajas de aleatorizar los factores no controlados:
• Transforma la variabilidad sistemática no planificada en variabilidad no planificada o ruido
aleatorio. Dicho de otra forma, aleatorizar previene contra la introducción de sesgos en el
experimento.
• Evita la dependencia entre observaciones al aleatorizar los instantes de recogida muestral.
• Valida muchos de los procedimientos estadísticos más comunes.
Bloquear
“Se deben dividir o particionar las unidades experimentales en grupos llamados bloques de modo
que las observaciones realizadas en cada bloque se realicen bajo condiciones experimentales lo
más parecidas posibles.
A diferencia de lo que ocurre con los factores tratamiento, el experimentador no está interesado
en investigar las posibles diferencias de la respuesta entre los niveles de los factores bloque”.
Bloquear es una buena estrategia siempre y cuando sea posible dividir las unidades
experimentales en grupos de unidades similares.
La ventaja de bloquear un factor que se supone que tienen una clara influencia en la respuesta
pero en el que no se está interesado, es la siguiente:
• Convierte la variabilidad sistemática no planificada en variabilidad sistemática planificada.
Con el siguiente ejemplo se trata de indicar la diferencia entre las estrategias de aleatorizar y de
bloquear en un experimento.
Ejemplo 2.1.
Se desea investigar las posibles diferencias en la producción de dos máquinas, cada una de las
cuales debe ser manejada por un operario.
En el planteamiento de este problema la variable respuesta es “la producción de una máquina (en
un día)”, el factor-tratamiento en el que se está interesado es el “tipo de máquina” que tiene dos
niveles y un factor nuisance es el “operario que maneja la máquina”. En el diseño del experimento
para realizar el estudio se pueden utilizar dos estrategias para controlar el factor “operario que
maneja la máquina”.
Aleatorizar: se seleccionan al azar dos grupos de operarios y se asigna al azar cada grupo de
operarios a cada una de las dos máquinas. Finalmente se evalúa la producción de las mismas.
Bloquear: se introduce el factor-bloque “operario”. Se elige un único grupo de operarios y todos
ellos utilizan las dos máquinas.
¿Qué consideraciones se deben tener en cuenta al utilizar estas dos estrategias? ¿Qué estrategia
es mejor?
La factorización del diseño.

14
“Un diseño factorial es una estrategia experimental que consiste en cruzar los niveles de todos los
factores tratamiento en todas las combinaciones posibles”.
Ventajas de utilizar los diseños factoriales:
• Permiten detectar la existencia de efectos interacción entre los diferentes factores tratamiento.
• Es una estrategia más eficiente que la estrategia clásica de examinar la influencia de un factor
manteniendo constantes el resto de los factores.

Clasificación y selección de diseños de experimentos


Según el número de variables, los diseños experimentales pueden ser:
 Diseños experimentales univariados
o Estudian una VD. Se clasifican, a su vez, según el número de VI:
 Diseños experimentales univariados unifactoriales: Manipulan una VI.
 Intersujeto.
 De grupos aleatorios.
 Dos grupos.
 Multigrupo.
 De bloques.
 Bloques al azar.
 Cuadrado latino.
 Grupos apareados.
 Intrasujeto.
 Mixtos.
 Diseños experimentales univariados factoriales: Manipulan más de una VI.
 Intersujeto.
 De grupos aleatorios.
 De bloques.
 Intrasujeto.
 Mixtos.
 Diseños experimentales multivariados

15
Experimento de un solo factor completamente aleatorizado

Ejemplo
El más sencillo es aquel que compara el efecto de k≥2 niveles de un solo factor sobre alguna
variable de respuesta.

Los niveles del factor son los tratamientos, y si estos se aplican de forma aleatoria a un conjunto
virtualmente homogéneo de unidades experimentales, el experimento tiene un diseño
completamente aleatorio.

Esta situación es la extensión natural del problema que surge cuando se comparan dos medias
poblacionales cuando las varianzas son desconocidas pero iguales.

Para k≥2 niveles, se desea probar la hipótesis nula.

contra la alternativa de que alguna de las medias de la población no son las mismas.

Si es posible rechazar la hipótesis nula con base en k muestras independientes, entonces las
medias de las k poblaciones no son todas iguales entre sí, o el efecto de los tratamientos sobre la
respuesta es estadísticamente discernible. Si no puede rechazarse la hipótesis nula, cualquier
desviación observada en la respuesta se debe solo al error aleatorio y no a causa de un cambio en
el tratamiento.

La técnica del análisis de la varianza proporciona el procedimiento inferencial para probar la


hipótesis nula. Para desarrollar esta técnica, se analizará el siguiente problema; saber si tiene
algún efecto sobre el consumo de energía ligeras diferencias en el aislamiento de los techos de las
casas. Supóngase que se tiene interés en k diferentes niveles de aislamiento en el techo, tales que
para el j-ésimo nivel se observará el consumo de energía mensual del sistema de calentamiento en
nj casas diferentes pero muy similares. Las casas se seleccionan homogéneas y los factores
externos están controlados dentro de ciertos límites prácticos. La respuesta medible es el número
de Kilowatios-hora mensuales.

Se supone que cada nivel de aislamiento térmico en los techos representa una población a partir
de la cual se obtiene una muestra; también, que las distribuciones de las poblaciones para cada
nivel de aislamiento son normales con varianzas iguales. Si la hipótesis nula es cierta, la

16
observación Yij es el uso promedio de la energía de los sistemas de calentamiento para todos los k
niveles de aislamiento térmico y cualquier desviación promedio se debe a un error aleatorio. Si H0
es falsa, entonces Yij está constituida por todos los promedios más el efecto del j-ésimo
tratamiento y el error aleatorio.

Términos utilizados
La forma tradicional que se utilizaba en la experimentación, para el estudio de estos problemas, se
basaba en estudiar los factores uno a uno, ésto es, variar los niveles de un factor permaneciendo
fijos los demás.

Las etapas a seguir en el desarrollo de un problema de diseño de experimentos son las siguientes:

Elegir una regla de asignación de las unidades experimentales a las condiciones de estudio
(tratamientos).

Especificar las medidas con que se trabajará (la respuesta), el procedimiento experimental y
anticiparse a las posibles dificultades.

Ejecutar un experimento piloto.

Especificar el modelo.

Esquematizar los pasos del análisis.

Determinar el tamaño muestral.

Revisar las decisiones anteriores. Modificarlas si se considera necesario.

Los pasos del listado anterior no son independientes y en un determinado momento puede ser
necesario volver atrás y modificar decisiones tomadas en algún paso previo.

Análisis de varianza (andeva o anova)


El análisis de la varianza (o ANOVA: Analysis of variance) es un método para comparar dos o más
medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto
utilizar repetidamente el contraste basado en la T de Student. Por dos motivos: En primer lugar, y
como se realizarían simultánea e independientemente varios contrastes de hipótesis, la
probabilidad de encontrar alguno significativo por azar aumentaría. En cada contraste se rechaza
la H0 si la t supera el nivel crítico, para lo que, en la hipótesis nula, hay una probabilidad a. Si se
realizan m contrastes independientes, la probabilidad de que, en la hipótesis nula, ningún
estadístico supere el valor crítico es (1 - a)m, por lo tanto, la probabilidad de que alguno lo supere
es 1 - (1 - a)m, que para valores de a próximos a 0 es aproximadamente igual a a m. Una primera
solución, denominada método de Bonferroni, consiste en bajar el valor de a, usando en su lugar
a/m, aunque resulta un método muy conservador.

17
Por otro lado, en cada comparación la hipótesis nula es que las dos muestras provienen de la
misma población, por lo tanto, cuando se hayan realizado todas las comparaciones, la hipótesis
nula es que todas las muestras provienen de la misma población y, sin embargo, para cada
comparación, la estimación de la varianza necesaria para el contraste es distinta, pues se ha hecho
en base a muestras distintas. El método que resuelve ambos problemas es el ANOVA, aunque es
algo más que esto: es un método que permite comparar varias medias en diversas situaciones;
muy ligado, por tanto, al diseño de experimentos y, de alguna manera, es la base del análisis
multivariante.

Modelo lineal
El análisis de la varianza parte de los conceptos de regresión lineal. Un análisis de la varianza
permite determinar si diferentes tratamientos muestran diferencias significativas o por el
contrario puede suponerse que sus medias poblacionales no difieren. El análisis de la varianza
permite superar las limitaciones de hacer contrastes bilaterales por parejas que son un mal
método para determinar si un conjunto de variables con n > 2 difieren entre sí. El primer concepto
fundamental es que todo valor observado puede expresarse mediante la siguiente función:

Diseño experimental completamente aleatorizado


Este diseño es el más sencillo, eficiente y se origina por la asignación aleatoria de los tratamientos
a un conjunto de unidades experimentales previamente determinado. En este diseño usamos k
tratamientos, asignándose cada uno al azar a n unidades experimentales; para cada unidad

18
seleccionamos al azar un número de 1 a k para decidir que tratamiento debemos aplicar a esa
unidad experimental. Si no existen restricciones, con excepción del requerimiento de igual número
de unidades experimentales por tratamiento, entonces se dice que el experimento tiene un diseño
completamente aleatorio. En este caso, todas las unidades experimentales tienen la misma
probabilidad de recibir cualquiera de los tratamientos y las unidades experimentales son
independientes.
Después que se ha efectuado el experimento, tenemos un grupo de datos consistente en las kn
respuestas de las unidades experimentales, clasificadas en k grupos de acuerdo con los
tratamientos que se aplicaron. Suponemos:
1) Que los valores observados en cualquiera de los grupos constituyen una muestra aleatoria de
todas las posibles respuestas bajo ese tratamiento para todas las unidades experimentales.
2) Que la variación entre las unidades tratadas de la misma manera es igual para todos los
tratamientos.
3) Que las respuestas se distribuyen normalmente.
Ventajas del diseño
1. Permite flexibilidad completa (cualquier número de tratamientos y de repeticiones). Todo el
material experimental disponible puede usarse.
2. El análisis estadístico es fácil (aún con diferentes números de repeticiones), o si los errores
experimentales difieren de un tratamiento a otro.
3. Método de análisis aún sigue siendo sencillo, cuando existe la perdida relativa de información.
4. El diseño es capaz de estimar el error estándar por unidad experimental (error experimental)
con un mayor grado de precisión.
La aleatorización completa puede ser apropiada cuando, a) donde el material experimental es
homogéneo; b) donde es probable que una parte apreciable de las unidades se destruyan; y c) en
experimentos pequeños en donde la mayor precisión de otros diseños no compensa la pérdida de
grados de libertad del error.
Construcción de la tabla de ANOVA: consideremos el grupo de los siguientes datos:
Primero debemos considerar que fuentes de variación se presentan y cómo se dividirá la variación
total de acuerdo a estas fuentes. La variación total en los datos se mide con la suma total de
cuadrados de las desviaciones a la media total. Una fuente de variación, las diferencias entre las
medias de los grupos, se mide por la suma de cuadrados de la desviación de las medias de los
grupos con respecto a la media total. La única variación restante es aquella entre las
observaciones dentro de cada grupo – esto es, la variación de los elementos de cada grupo con
respecto
a la media de este grupo. Esto lo medimos con la suma conjunta de cuadrados de las desviaciones
de las observaciones individuales a las medias de los grupos.
Unidades experimentales = Número de tratamiento x número de repetición n = tx

19
Modelo de efectos fijos
En estadística, un modelo de efectos fijos es un modelo estadístico que representa las cantidades
observadas en las variables explicativas que son tratadas como si las cantidades fueran no-
aleatorias. Considere el modelo lineal de efectos no observados para N observaciones y T
periodos de tiempo:

Donde Yit es la variable dependiente observada para el individuo i en el tiempo t, Xit es la matriz
de regresores variable en el tiempo de tamaño 1 x K, αi es lo no observado invariante en el tiempo
y el efecto individual, Uit es el término de error. A diferencia de , Xit no puede ser observada por el
econometrista. Los ejemplos más comunes de efectos invariantes en el tiempo son los αi que
representan la capacidad innata de los individuos o los factores históricos e institucionales de los
países. A diferencia del modelo de efectos aleatorios (RE, por "random effects") en el que la
observada αi es independiente de Xit para todos T = 1… , T, el modelo de elementos fijos (FE, por
Fixed effects) permite a αi que se correlacione con la matriz regresores Xit . La exogeneidad
estricta, sin embargo, sigue siendo necesaria. Dado que αi no es observable, no pueden ser
directamente controlada. El modelo FE elimina αi degradando a las variables a través de la
transformación "dentro de" ("within"):

Modelo de efectos aleatorios


En estadística, un modelo de efectos aleatorios, también conocido como modelo de componentes
de la varianza, es una especie de modelo lineal jerárquico. Se supone que el conjunto de datos que
se analiza consiste en una jerarquía de diferentes poblaciones cuyas diferencias se refieren a esa
jerarquía.

En este modelo se asume que las k muestras son muestras aleatorias de k situaciones distintas y
aleatorias. De modo que un valor aislado Yij se puede escribir como:

donde m es la media global, eij son variables (una para cada muestra) distribuidas normalmente,
con media 0 y varianza s2 (como en el modelo I) y Ai es una variable distribuida normalmente,
independiente de las eij, con media 0 y varianza S2a

La diferencia con respecto al modelo I es que en lugar de los efectos fijos ai ahora se consideran
efectos aleatorios Ai.

Igual que en el modelo I se encuentra que MSE no se modifica en la H1 y que al valor esperado de
MSA se le añade el término de componente añadida (que aquí es una verdadera varianza ya que Ai
es una variable aleatoria):

20
La suma total de cuadrados
La suma de cuadrados representa una medida de variación o desviación con respecto a la media.
Se calcula como una suma de los cuadrados de las diferencias con respecto a la media. El cálculo
de la suma total de los cuadrados considera tanto la suma de los cuadrados de los factores como
de la aleatoriedad o el error.

Suma de los cuadrados en ANOVA

En el análisis de varianza (ANOVA), la suma total de los cuadrados ayuda a expresar la variación
total que se puede atribuir a diferentes factores. Por ejemplo, usted hace un experimento para
probar la efectividad de tres detergentes para ropa.

La suma total de los cuadrados = suma de los cuadrados del tratamiento (SST) + suma de los
cuadrados del error residual (SSE)

La suma de los cuadrados del tratamiento es la variación atribuida a, o en este caso entre, los
detergentes para ropa. La suma de los cuadrados del error residual es la variación atribuida al
error.

El convertir la suma de los cuadrados en cuadrados medios al dividir entre los grados de libertad le
permitirá comparar estas relaciones y determinar si existe una diferencia significativa debido al
detergente. Mientras mayor sea esta relación, más afectarán los tratamientos el resultado.

Suma de los cuadrados en regresión

En la regresión, la suma total de los cuadrados ayuda a expresar la variación total de las Y. Por
ejemplo, usted recoge datos para determinar un modelo que explique las ventas generales en
función de su presupuesto de publicidad.

La suma total de los cuadrados = suma de los cuadrados de la regresión (SSR) + suma de los
cuadrados del error residual (SSE)

La suma de los cuadrados de la regresión es la variación atribuida a la relación entre las X y las Y o,
en este caso, entre el presupuesto de publicidad y las ventas. La suma de los cuadrados del error
residual es la variación atribuida al error.

Al comparar la suma de los cuadrados de la regresión con la suma total de los cuadrados, se
determina la proporción de la variación total que es explicada por el modelo de regresión (R2, el
coeficiente de determinación). Mientras más grande sea este valor, mejor será la relación que
explique las ventas en función del presupuesto de publicidad.

Comparación de las sumas secuenciales de los cuadrados y las sumas ajustadas de los cuadrados

Minitab desglosa el componente SC Regresión o Tratamientos de la varianza en las sumas de los


cuadrados para cada factor.

21
Sumas secuenciales de los cuadrados

Las sumas secuenciales de los cuadrados dependen del orden en que los factores se ingresan en el
modelo. Es la porción única de la SC Regresión explicada por un factor, dados los factores
ingresados previamente.

Por ejemplo, si usted tiene un modelo con tres factores, X1, X2 y X3, la suma secuencial de los
cuadrados para X2 muestra la proporción de la variación restante que es explicada por X2, dado
que X1 ya se encuentre en el modelo. Para obtener una secuencia diferente de factores, repita el
procedimiento de regresión ingresando los factores en un orden diferente.

Sumas ajustadas de los de cuadrados

Las sumas ajustadas de los cuadrados no dependen del orden en que los factores se ingresan en el
modelo. Es la porción única de la SC Regresión explicada por un factor, dados todos los demás
factores en el modelo, independientemente del orden en que se ingresaron en el mismo.

Por ejemplo, si usted tiene un modelo con tres factores, X1, X2 y X3, la suma ajustada de los
cuadrados para X2 muestra la proporción de la variación restante que es explicada por X2, dado
que X1 y X3 también se encuentren en el modelo.

Las sumas secuenciales y ajustadas de los cuadrados siempre son iguales para el último término
del modelo. Por ejemplo, si el modelo contiene los términos A, B y C (en ese orden), entonces los
dos sumas de los cuadrados para C representan la reducción en la suma de los cuadrados del error
residual que se produce cuando C se agrega a un modelo que contiene A y B.

Las sumas secuenciales y ajustadas de los cuadrados será igual para todos los términos si la matriz
de diseño es ortogonal. El caso más común en el que ocurre esto es con los diseños factoriales y
factoriales fraccionados (sin covariables) cuando se analizan en unidades codificadas. En estos
diseños, las columnas de la matriz de diseño para todos los efectos principales y las interacciones
son ortogonales entre sí. Los diseños de Plackett-Burman tienen columnas ortogonales para los
efectos principales (por lo general los únicos términos en el modelo), pero los términos de
interacción, si existen, pueden confundirse parcialmente con otros términos (es decir, no
ortogonales). En los diseños de superficie de respuesta, las columnas para los términos al
cuadrado no son ortogonales entre sí.

Para cualquier diseño, si la matriz de diseño se encuentra en unidades no codificadas, entonces


puede haber columnas que no son ortogonales, a menos que los niveles de los factores aún estén
centrados en cero.

Las sumas ajustadas de los cuadrados pueden ser menores, iguales o mayores que las sumas
secuenciales de los cuadrados.

Supongamos que usted ajusta un modelo con los términos A, B, C y A*B. Sea SC (A, B, C, A*B) la
suma de los cuadrados cuando A, B, C y A*B estén en el modelo. Sea SC (A, B, C) la suma de los

22
cuadrados cuando A, B y C estén incluidos en el modelo. Entonces, la suma ajustada de los
cuadrados para A*B es:

SC(A, B, C, A*B) - SC(A, B, C)

Sin embargo, con los mismos términos A, B, C, A*B en el modelo, la suma secuencial de los
cuadrados para A*B depende del orden en que los términos se especificaron en el modelo.

Utilizando una notación similar, si el orden es A, B, A*B, C, entonces la suma secuencial de los
cuadrados para A*B es:

SC(A, B, A*B) - SC(A, B)

Dependiendo del conjunto de datos y del orden en el que se especifiquen los términos, todos los
casos siguientes son posibles:

SC(A, B, C, A*B) - SC(A, B, C) < SC(A, B, A*B) - SC(A, B), o

SC(A, B, C, A*B) - SC(A, B, C) = SC(A, B, A*B) - SC(A, B), o

SC(A, B, C, A*B) - SC(A, B, C) > SC(A, B, A*B) - SC(A, B)

Eleva al cuadrado cada uno de los valores de la columna y calcula la suma de esos valores elevados
al cuadrado. Es decir, si la columna contiene x1, x2, ... , xn, entonces la suma de los cuadrados
calcula (x12 + x22+ ... + xn2). A diferencia de la suma corregida de los cuadrados, la suma de los
cuadrados no corregida incluye el error. Los valores de los datos se elevan al cuadrado sin antes
restar la media.

En Minitab, usted puede utilizar los estadísticos descriptivos para mostrar la suma de los
cuadrados no corregida (elija Estadísticas > Estadísticas básicas > Mostrar estadísticos
descriptivos). También puede utilizar la función de suma de los cuadrados (SSQ) en la Calculadora
para calcular la suma de los cuadrados no corregida de una columna o fila. Por ejemplo, usted está
calculando una fórmula manualmente y desea obtener la suma de los cuadrados para un conjunto
de variables de respuesta (Y).

En Minitab, usted puede utilizar los estadísticos descriptivos para mostrar la suma de los
cuadrados no corregida (elija Estadísticas > Estadísticas básicas > Mostrar estadísticos
descriptivos). También puede utilizar la función de suma de los cuadrados (SSQ) en la Calculadora
para calcular la suma de los cuadrados no corregida de una columna o fila. Por ejemplo, usted está
calculando una fórmula manualmente y desea obtener la suma de los cuadrados para un conjunto
de variables de respuesta (Y).

Elija Calc > Calculadora e ingrese la expresión: SSQ (C1)

23
Almacene los resultados en C2 para ver la suma de los cuadrados no corregida. La siguiente hoja
de trabajo muestra los resultados del uso de la calculadora para calcular la suma de los cuadrados
de la columna Y.

Suma de cuadrados en el ANOVA de un factor o vía de efectos fijos. La variabilidad observada


en los datos es debida a la naturaleza propia de las variables o medidas que analizamos, pero
también es imputable a los niveles o tratamientos en el caso que afecten de manera desigual a la
variable respuesta. El análisis de la varianza permite considerar herramientas (estadísticos) que
separan la variabilidad debida al azar de la variabilidad imputable a los tratamientos o
niveles. Estos estadísticos se definen a partir de las variables que configuran las
N=n1+n2+...+nk observaciones.

Por simplificar la notación supondremos que estamos ante un diseño balanceado o equilibrado,
es decir n1=n2=...=nk=n ; que es el recomendable, por otra parte, en tanto que es menos sensible a
pequeñas desviaciones de la normalidad y de la homocedasticidad ( los supuestos básicos del
ANOVA). Una medida de la variabilidad total de los datos es la suma de cuadrados total
, designada por SST :

La suma de cuadrados total, en tanto que medida de variabilidad total, se descompone de la forma
siguiente:

24
SSA es una medida de la variabilidad entre las medias muestrales de las observaciones de cada
tratamiento.

SSE es una medida de la variabilidad de las observaciones respecto a la media muestral a la que
pertenecen.

La tabla de andeva
La técnica del Análisis de la Varianza (ANDEVA) es una de las técnicas más utilizadas en los análisis
de los datos de los diseños experimentales. Se utiliza cuando queremos contrastar más de dos
medias, por lo que puede verse como una extensión de la prueba t para diferencias de dos medias.

El ANDEVA usado para analizar experimentos, es un método muy flexible que permite construir
modelos estadísticos para el análisis de los datos experimentales. Básicamente es un
procedimiento que permite dividir la varianza de la variable dependiente, generalmente variable
continua, en dos o más componentes, cada uno de los cuales puede ser atribuido a una fuente
(variable o factor) identificable y la otra al error experimental. Las variables independientes son
generalmente nominales, son los Factores en estudio y hacen grupos o tratamientos.

Los modelos que permite construir el ANDEVA pueden ser reducidos al cociente entre dos
varianzas, el numerador es la varianza del modelo como los tratamientos, bloques, etc. y el
denominador es la varianza de los errores. Por ejemplo en un caso de Andeva unifactorial ó anova
𝑆𝑡𝑟𝑎𝑡 2
one way el valor “F” calculado es 𝑆𝑒𝑟𝑟𝑜𝑟 2 .

El ANDEVA está basado en ciertos supuestos, unos más posibles que otros Es evidente que cuantos
más factores introduzcamos se espera que quede menos cantidad de variación residual (error) por
explicar. Pero siempre quedará alguna variación residual.

Suposiciones del Análisis de Varianza

En cada ocasión que se realice un análisis de varianza (ANDEVA), rutinariamente deben


examinarse los datos para determinar si estos indican alguna desviación de los supuestos que
rigen dicho análisis. Por lo tanto, es recomendable realizar un análisis de las suposiciones en las
que se basa el ANDEVA junto con el análisis mismo. Sólo después de hacer este análisis de

25
suposiciones y que éstas se cumplan razonablemente, se puede expresar con cierta confianza la
validez de los resultados estadísticos.

Las suposiciones en las que se basa el ANDEVA son las siguientes:

Normalidad de los errores: Es relativamente fácil hacer pruebas de normalidad de los errores con
programas estadísticos computacionales, ya sea con un gráfico QQ plot o la prueba de normalidad
de Shapiro Wilks. En la primera prueba el valor “r” de correlación debe ser mayor a 0.95 y en la
segunda prueba el valor “p” de la prueba de hipótesis debe ser mayor a 0.05, estar en H0. El
programa INFOSTAT puede calcular los errores de cada dato y hace ambas pruebas. Sin embargo
este requisito no es tan importante como la Independencia de las Observaciones, pues en general
el ANDEVA es una prueba robusta. Esto quiere decir que, aunque los errores de las observaciones
no sean normales, las medias de los tratamientos son aproximadamente normales debido al
Teorema Central del Límite. Sin embargo, si los errores de los datos son extremadamente no-
normales, es posible transformar los datos para cubrir este requisito, o bien emplear métodos no
paramétricos.

Homogeneidad de varianzas de los diferentes tratamientos: Es muy importante para el modelo


verificar su hay homogeneidad de las varianzas de los diferentes tratamientos, pues si esto no se
cumple se pueden invalidar los resultados de una HA. Una población heterogénea en varianzas no
permite detectar si las diferencias observadas se deben diferencias de promedios o de las
varianzas.

Independencia de promedios y varianzas: Que un promedio mayor no tenga independencia entre


medias y varianzas es un caso especial de falta de homogeneidad de varianzas. En algunos datos
existe una relación definida entre las medias y sus varianzas, por ejemplo el número de hojas de
plantas de tomate de un mes y de tres meses, en ambos casos no solo hay diferencias de
promedios sino también de varianzas, a más edad mayor promedio y varianza. Este problema se
puede manejar con un buen diseño del experimento. Sin embargo esta relación suele ser la causa
más común de heterogeneidad de varianza. Una correlación positiva entre medias y varianzas es
una forma de detectar el problema, ó cuando se observa un amplio rango entre las medias. El
estadístico de Levene también detecta este problema.

Aditividad del modelo

Una prueba ANDEVA supone que los datos siguen un modelo lineal aditivo. Para cada diseño
experimental se construye un modelo matemático lineal aditivo, para el caso de un diseño
completamente aleatorio, DCA, es 𝑥𝑖𝑗 = 𝑥̅ ± 𝛼𝑖 ± 𝜀𝑖 . La ecuación expresa que el valor de cualquier
unidad experimental está compuesta por la media general, más o menos el efecto de tratamiento
𝛼𝑖 y más o menos un termino de error característico de cada dato 𝜀𝑖𝑗. En este modelo los
términos se suman, si esto no ocurre así, el ANDEVA nos puede llevar a conclusiones incorrectas.
La falta de aditividad puede ocurrir por un mal diseño del experimento, por ejemplo si se prueban
diferentes dosis de fertilizante, pero cada dosis se prueba en una especie de planta diferente,

26
puede resultar una interacción entre dosis de fertilizante y especie de planta que rompa el modelo
aditivo.

La violación o falta de apego a cualquiera de estas suposiciones indica que los resultados podrían
no tener validez. Dependiendo del tipo de problema, puede haber solución o no al objetivo
buscado en el experimento. El dilema más fuerte con el que ha de luchar el experimentador es el
de la falta de homogeneidad de varianzas, ya que si esto ocurre, no podemos saber si las
diferencias entre los tratamientos se deben a promedios diferentes o varianzas diferentes.

La falta de normalidad no es tan importante, pues la prueba ANDEVA es robusta a este problema
y, en casos extremos, se puede optar por el uso de transformaciones. En general para los casos en
que los supuestos de normalidad, homogeneidad, independencia de medias-varianzas o aditividad
no se cumplen, puedo usar transformaciones de datos, las más usadas son:

• Logaritmo Log (x), útil cuando los datos crecen en sentido exponencial o cuando las desviaciones
estándares de las muestra sean aproximadamente proporcionales a los promedios o hay evidencia
de efectos principales multiplicativos de los tratamientos en vez de aditividad.

• La transformación √𝑥 + 0.5 útil cuando los números observados son pequeños 0-10, por
ejemplo son acontecimientos pocos comunes, tienen una posibilidad muy baja de ocurrir en
cualquier individuo. Estos datos tienden a seguir una distribución de Poisson.

• La transformación 𝐴𝑟𝑐𝑜𝑠𝑒𝑛𝑜 √𝑥/100 cuando los datos son expresados en por ciento o son
proporciones de la muestra total. Por lo general estos datos tienen una distribución binomial y no
de una distribución normal como se espera.

Como último recurso, ante datos dudosos de análisis se puede usar el uso de métodos de
estadística no paramétrica. Es importante mencionar que el empleo de estadística no paramétrica
o el uso de transformaciones no eliminan el problema de la falta de aleatoriedad de las unidades
experimentales, errores por un mal diseño del experimento o por una mala toma de datos, es
decir, la ejecución incorrecta de un experimento no tiene más remedio que repetir el experimento
corrigiendo los errores por falta de diseño o mal manejo.

27
El diseño desbalanceado
En este caso, faltaría la combinación de niveles de factor (1, 0, 0) y usted tiene dos observaciones
de la combinación (0, 1, 0). Cualquiera de estas condiciones, por sí solas, hacen que el diseño sea
no balanceado.

C1 C2 C3

A B C

0 0 0

0 1 0

0 1 0

0 0 1

0 1 1

1 1 0

1 0 1

1 1 1

Por lo general, el análisis de un diseño balanceado es sencillo, porque se pueden ver las
diferencias entre las medias de los niveles de factores sin procesar para sus estimaciones de los
efectos principales y de interacción. Si el diseño es no balanceado, bien sea porque así estaba
previsto o debido a una pérdida accidental de datos, las diferencias en las medias de los niveles de
factores sin procesar podrían mostrar las observaciones no balanceadas en lugar de cambios en
los niveles de los factores. Para los diseños no balanceados, puede usar medias ajustadas para
predecir los resultados que habría producido un diseño balanceado.
Intervalo de confianza para la media del tratamiento µi
Para reportar las medias luego de realizar un ANOVA podemos usar un gráfico de barras (que se
genera opcionalmente en InfoStat), e incluir límites de confianza para las medias (o errores
estándar para las medias). Las fórmulas estudiadas anteriormente usando la tabla t se podrían
aplicar aquí:

Este estimador tiene los grados de libertad del error. Por lo tanto, el intervalo de confianza para
una media de tratamiento es

28
Intervalo de confianza para la diferencia de medias de 2
tratamientos
Similarmente podemos calcular un intervalo de confianza para la diferencia de dos medias.
Suponiendo igual número de repeticiones n:

Observar que el término que se suma y resta en esta fórmula es DMS, por lo que el intervalo de
confianza para la diferencia de dos medias es:

Análisis residuales y verificación del modelo


El análisis de los residuos consiste, por tanto, en contrastar que, i=1,...,n provienen de una
población normal con media 0 y varianza s 2 con las pruebas habituales de ji-cuadrado,
Kolmogorov-Smirnov. Hay que tener en cuenta que de este modo se están contrastando
globalmente todas las asunciones y, por consiguiente, una falta de normalidad de los residuos
puede ser debida también a que el modelo sea inapropiado o a existencia de heterocedasticidad.
Teniendo en cuenta que (n-(k+1))s2/ s2 se distribuye como una ji-cuadrado con (n(k+1)) grados de
libertad, la variable

llamada residuo normalizado tendrá una distribución t de Student con (n-(k+1)) grados de libertad,
que para valores de n suficientemente grandes se puede aproximar a una normal reducida (de
media cero y varianza 1) y, a menudo, se contrasta la distribución de esta variable en lugar del
residuo. Además de estas pruebas de significación para asegurar que globalmente se cumplen las
asunciones del modelo, es útil realizar un análisis gráfico de los mismos que permite discriminar
entre distintas violaciones de las mismas. Si se representara en una gráfica bidimensional los
residuos observados (eje Y) para cada una de las variables Y|x1,...,xk (eje X) y se cumplieran las
asunciones se observaría una nube de puntos en dirección horizontal y con anchura constante (la
media de cada ex1,...,xkdebería ser cero y tener todas la misma varianza). Como para cada
variable Y|x1,...,xk el modelo produce la misma estimación una gráfica de los residuos contra los

29
valores predichos tendrá el mismo aspecto (fig. A). Si se viola la linealidad se observará una falta
de linealidad también en los residuos (fig. B), si se viola la homoscedasticidad, la anchura de la
banda no será constante (fig. C), una relación lineal entre los residuos y las predicciones puede
indicar que alguna variable no incluida en el modelo puede ser significativa (fig. D).

Pruebas sobre medias de tratamientos individuales


Comparación grafica de medias
El análisis de medias es una alternativa gráfica del ANOVA que prueba la igualdad de las medias
poblacionales. La gráfica muestra cada una de las medias de los niveles de los factores, la media
general y los límites de decisión. Si un punto se encuentra fuera de los límites de decisión, existe
evidencia de que la media de los niveles del factor representada por ese punto es
significativamente diferente de la media general.

La gráfica superior muestra que los efectos de interacción se encuentran claramente dentro de los
límites de decisión, lo que significa que no hay evidencia de interacción. Las dos gráficas de la
parte inferior muestran las medias de los niveles de los dos factores, donde se observa que el
efecto principal es la diferencia entre la media y la línea central.

MÉTODO DE LA DIFERENCIA SIGNIFICATIVA MÍNIMA DE FISHER


El método LSD de Fisher utiliza la tasa de error individual y varias comparaciones para calcular el
nivel de confianza simultáneo para todos los intervalos de confianza. Este nivel de confianza
simultáneo es la probabilidad de que todos los intervalos de confianza contengan la diferencia
verdadera.

30
Ejemplo del método LSD de Fisher: Usted está midiendo los tiempos de respuesta de circuitos
integrados de memoria. Toma una muestra de 25 circuitos integrados de cinco fabricantes
diferentes. El análisis ANOVA produjo un valor p de 0.01, con lo cual usted concluye que al menos
una de las medias de los fabricantes es diferente de las demás.

Usted decide examinar las 10 comparaciones entre las cinco plantas para determinar
específicamente cuáles medias son diferentes. Utilizando el método LSD de Fisher, usted
especifica que cada comparación debe tener una tasa de error individual de 0.05 (equivalente a un
nivel de confianza de 95%). Minitab crea estos diez intervalos de confianza de 95% y calcula que
este conjunto produce un nivel de confianza simultáneo de 71.79%. Entendiendo este contexto,
usted puede examinar entonces los intervalos de confianza para determinar si alguno de ellos no
incluye el cero, lo que indica una diferencia significativa.

OTROS MÉTODOS PARA PRUEBAS SOBRE LA DIFERENCIA D/MEDIAS D/2 TRATAMIENTOS Las
comparaciones múltiples de las medias permiten examinar cuáles medias son diferentes y estimar
el grado de diferencia. Usted puede evaluar la significancia estadística de las diferencias entre las
medias usando un conjunto de intervalos de confianza, un conjunto de pruebas de hipótesis o
ambos. Los intervalos de confianza permiten evaluar la significancia práctica de las diferencias
entre las medias, además de la significancia estadística.

Como es habitual, la hipótesis nula de no diferencia entre medias se rechaza si y solo si el intervalo
de confianza no contiene el cero. La selección del método adecuado de comparación múltiple
depende de la inferencia que usted desee. No es adecuado utilizar el método de Tukey para todas
las parejas si los métodos de Dunnett o MCB son apropiados, porque los intervalos de confianza
de Tukey serán más amplios y las pruebas de hipótesis serán menos potentes para una tasa de
error por familia determinada. Por las mismas razones, MCB es superior a Dunnett si usted desea
eliminar los niveles de factor que no sean los mejores e identificar cuáles son los mejores o están
cerca de serlo. La elección entre los métodos LSD de Tukey y de Fisher depende de la tasa de error
que desee especificar usted: por familia o individual. Las características y ventajas de cada
método se resumen en la tabla siguiente:

31
Referencias
https://www.uaeh.edu.mx/scige/boletin/sahagun/n1/e1.html

https://es.wikipedia.org/wiki/An%C3%A1lisis_de_la_varianza

http://www.juntadeandalucia.es/averroes/centros-
tic/14002996/helvia/aula/archivos/repositorio/250/295/html/estadistica/diseno.htm

https://psikipedia.com/libro/investigacion/1536-clasificacion-de-los-disenos-experimentales

https://es.wikipedia.org/wiki/Dise%C3%B1o_experimental

http://dm.udc.es/asignaturas/estadistica2/sec2_3.html

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/anova/supporting-topics/anova-statistics/understanding-sums-of-squares/

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/anova/supporting-topics/basics/what-is-anova/

Videos de apoyo al tema


ANOVA. Análisis de la varianza con un factor. | | UPV

https://www.youtube.com/watch?v=WVM_jZSCSzE

ANOVA. Introducción | | UPV

https://www.youtube.com/watch?v=DUT9jhPDih0

32

You might also like