Tema 1

DISEÑOS COMPLETAMENTE ALEATORIZADOS

Introducción

En la investigación científica es frecuente encontrarse con la necesidad de comparar entre sí diversas alternativas. Algunas de estas situaciones pueden ser las siguientes:

  • Una compañía algodonera que emplea diversos fertilizantes desea comprobar si éstos tienen efectos diferentes sobre el rendimiento de la semilla de algodón.
  • Una profesora de estadística que imparte en grupos experimentales de alumnos, en los que explica la misma materia pero siguiendo distintos métodos de enseñanza, desea comprobar si el método de enseñanza utilizado influye en las calificaciones de los alumnos.
  • Una industria química, que obtiene un determinado producto, está interesada en comprobar si los cambios de temperatura influyen en la cantidad de producto obtenido.

todas estas situaciones tienen en común que su interés está centrado en un solo factor con varios niveles o tratamientos que pueden producir efectos distintos y, por ello, pueden ser abordadas mediante la técnica estadística del Análisis de la Varianza de un factor o una vía.

El análisis de la varianza fue desarrollado por Fisher en 1925 con el objetivo de comparar entre sí varios grupos o tratamientos mediante la descomposición de la variabilidad total de un experimento en componentes independientes que puedan atribuirse a distintas causas. Esencialmente este análisis determina si la discrepancia entre las medias de los tratamientos es mayor de lo que podría esperarse razonablemente de la discrepancia existente dentro de los tratamientos.

En los ejemplos anteriores, aparte del factor mencionado, también pueden influir otros muchos factores que se suponen de poca importancia. Por ejemplo:

  • En el rendimiento de la planta de algodón, además del tipo de fertilizante, también pueden influir, pequeñas variaciones en la cantidad de riego, en la pureza de los insecticidas suministrados, etc.
  • En las calificaciones de los alumnos, además del método de enseñanza, también pueden influir, el nivel cultural del alumno, el grado de atención y de interés del alumno, etc.
  • En la cantidad de producto obtenido, además de la temperatura, también pueden influir, la pureza de la materia prima, la habilidad de los operarios, etc.

El resultado de todas estas causas o factores no controlados influyen en la variable respuesta; en el caso concreto de la compañía algodonera, en las diferencias de los rendimientos, en la variabilidad de los rendimientos. El análisis de esta variabilidad es la base fundamental de esta técnica estadística.

Refiriéndonos de nuevo al ejemplo de la compañía algodonera, supongamos que deseamos comprobar el efecto del fertilizante en el rendimiento del cultivo de algodón, cuya variabilidad también es debida a la presencia de otros factores. Teóricamente es posible dividir esta variabilidad en dos partes, la originada por el factor de interés, el tipo de fertilizante, y la producida por los restantes factores que entran en juego, conocidos o no, controlables o no, que recibe el nombre de perturbación o error experimental.

En Estadística Básica se aborda el problema de contrastar la igualdad de medias de dos poblaciones. Por ejemplo, comparar entre sí dos tipos de fertilizantes, dos métodos de enseñanza, dos tratamientos médicos, dos tipos de insecticidas, dos temperaturas empleadas en el proceso de obtención de un determinado producto, etc. Estos tipos de tests son de uso muy frecuente y se denominan contrastes para dos muestras independientes. El Análisis de la Varianza generaliza estos procedimientos a más de dos poblaciones.

Para abordar esta situación, seguiremos la siguiente metodología:

(i) Establecer un modelo de comportamiento, que podemos formalizar matemáticamente.
(ii) Estimar los parámetros del modelo.
(iii) Contrastar la hipótesis de igualdad de medias de los tratamientos.
(iv) Comprobar la idoneidad del modelo.

Como hemos dicho anteriormente, presentaremos en este capítulo el modelo con un solo factor y en capítulos posteriores generalizaremos esta idea a más de un factor.

A lo largo de este capítulo vamos a considerar algunos de los ejemplos citados en la introducción como situaciones ilustrativas de referencia.

Planteamiento del modelo

Para desarrollar esta sección consideramos como ejemplo ilustrativo la situación de la compañía algodonera. A lo largo de las sucesivas secciones, seguiremos haciendo referencia a este ejemplo. Dicha situación daría lugar, con unos datos concretos, al siguiente enunciado:

Ejemplo 1.1

Una compañía algodonera, interesada en maximizar el rendimiento de la semilla de algodón, desea comprobar si dicho rendimiento depende del tipo de fertilizante utilizado para tratar la planta. A su disposición tiene 5 tipos de fertilizantes. Para comparar su eficacia fumiga, con cada uno de los fertilizantes, un cierto número de parcelas de terreno de la misma calidad y de igual superficie. Al recoger la cosecha se mide el rendimiento de la semilla, obteniéndose las siguientes observaciones que se muestran en la Tabla 1

\(  \begin{array}{| c| cccccc|} \hline  Fertilizantes & & & Rendimiento &&& \\ \hline     1 &   51 &   49  &  50  &  49  &  51  &  50 \\  2  &  56 &   60  &  56   & 56  &  57 &  \\ 3  &  48 &   50   & 53 &   44  &  45 & \\ 4 &  47  &  48  &  49  &  44 & & \\
5 &  43 &   43  &  46  &  47  &  45  &  46 \\ \hline   \end{array}  \)

Tabla 1. Rendimiento del algodón

En este experimento, se han considerado 5 tipos de fertilizantes que se han aplicado, respectivamente, a 6, 5, 5, 4 y 6 parcelas. La variable de interés o variable respuesta es el rendimiento de la semilla en peso por unidad de superficie.

Todo este planteamiento se puede formalizar de manera general para cualquier experimento unifactorial. Supongamos un factor con I niveles y que para el nivel i-ésimo se obtienen \( n_{i} \) observaciones de la variable respuesta. Entonces podemos postular el siguiente modelo

\( y_{ij}=μ+τ_{i}+u _{ij} \hspace{2cm} \)  [1.1]

donde

  • \( y_{ij} \) es la variable aleatoria que representa la observación j-ésima del i-ésimo tratamiento (nivel i-ésimo del factor).
  • \( μ \) es un efecto constante, común a todos los niveles, denominado media global
  •  \( τ_{i} \) es la parte de \( y_{ij} \) debida a la acción del nivel i-ésimo, que será común a todos los elementos sometidos a ese nivel del factor, (“aportación cuantitativa del nivel i-ésimo del factor al valor total de la variable \( y_{ij} \)“), llamado efecto del tratamiento i-ésimo
  •  \( u_{ij} \) son variables aleatorias que engloban un conjunto de factores, cada uno de los cuales influye en la respuesta sólo en pequeña magnitud pero que de forma conjunta debe tenerse en cuenta en la especificación y tratamiento del modelo; es decir, las perturbaciones o error experimental pueden interpretarse como las variaciones causadas por todos los factores no analizados y que dentro del mismo tratamiento variarán de unos elementos a otros. Estas perturbaciones deben verificar las siguientes condiciones:

Que tengan media cero

\( E[u_{ij}]=0   \hspace{2cm}   \forall i,j \)

Que tengan varianza constante (hipótesis de homocedasticidad)

\( Var[u_{ij}]=σ^{2}  \hspace{2cm}   \forall i,j \)

Que sean estadísticamente independientes entre sí

\( E[u_{ij}u_{rk}]=0  \hspace{.5cm}  i \neq r  \hspace{.3cm}  ó  \hspace{.3cm} j \neq k \)

Que su distribución sea normal.

Nuestro objetivo es estimar los efectos de los tratamientos y contrastar la hipótesis de que todos los niveles del factor producen el mismo efecto, frente a la alternativa de que al menos dos difieren significativamente entre sí. Para ello, se supone que los errores experimentales son variables aleatorias independientes con distribución normal, con media cero y varianza constante \( σ^{2} \).

En este modelo, que estudia el efecto que produce un solo factor en la variable respuesta, la asignación de las unidades experimentales a los distintos niveles del factor se debe realizar de forma completamente al azar. Este modelo, junto con este procedimiento de asignación, recibe el nombre de Diseño Completamente Aleatorizado y está basado en el modelo estadístico de Análisis de Varianza de un Factor o una Vía. Para aplicar este diseño adecuadamente las unidades experimentales deben ser lo más homogéneas posible.

En el modelo estadístico dado por la ecuación ([1.1]), se distinguen dos situaciones según la selección de los tratamientos: modelo de efectos fijos y modelo de efectos aleatorios.

(i) En el modelo de efectos fijos el experimentador decide qué niveles concretos se van a considerar y las conclusiones obtenidas son aplicables sólo a dichos niveles, no pudiéndose hacer extensivas a otros niveles no incluidos en el estudio.

En la situación de referencia, la compañía algodonera decide utilizar unos determinados fertilizantes. Se trata de un modelo de efectos fijos y la compañía algodonera aplicará los resultados de la investigación exclusivamente a los fertilizantes considerados en el estudio.

El caso de las calificaciones de los alumnos también se trata de un modelo unifactorial de efectos fijos, ya que la profesora sólo está interesada en averiguar si unos determinados métodos de enseñanza influyen en las calificaciones de los alumnos y aplicará los resultados de la investigación exclusivamente a los métodos de enseñanza empleados.

(ii) En el modelo de efectos aleatorios, los niveles del factor se seleccionan al azar; es decir, los niveles estudiados son una muestra aleatoria  de una población de niveles. En este modelo se generalizan las conclusiones (basadas en la muestra de niveles), a todos los posibles niveles del factor, hayan sido explícitamente considerados en el análisis o no.

Refiriéndonos a la situación de la industria química, interesada en la influencia de la temperatura en la cantidad de producto obtenido, se podría considerar como un modelo de efectos aleatorios si las temperaturas comparadas son una muestra entre las posibles temperaturas que se podrían utilizar.

Es importante distinguir claramente las diferencias entre ambos modelos. En el primero, tanto la compañía algodonera como la profesora podían estudiar un número de fertilizantes y métodos de enseñanza, respectivamente, más amplio pero sólo están interesados en unos determinados. El interés se centra en la comparación de las medias de los niveles considerados, por lo cual los resultados sólo pueden aplicarse a dichos niveles. Por el contrario, en la industria química el interés se centra en la variabilidad que produce el cambio de temperaturas en la cantidad de producto obtenido.

Modelo de efectos fijos

En este modelo, los efectos \( τ_{i} \) son constantes desconocidas que estamos interesados en estimar y en contrastar determinadas hipótesis relativas a dichos efectos. Para ello, para cada nivel i del factor, tomamos una muestra aleatoria simple de tamaño \( n_{i} \). En principio podemos reescribir el modelo [1.1] en la forma

\( y_{ij}=μ_{i}+u_{ij} \hspace{2cm} [1.2] \)

donde \( y_{ij} \) será la observación correspondiente al elemento j-ésimo (\( j=1,2, \cdots ,n_{i} \)) sujeto al nivel i-ésimo del factor (\( i=1,2, \cdots ,I \)) y \( μ_{i}\) es la media correspondiente al nivel i-ésimo.

Las condiciones anteriores de este modelo se resumen en:

\(  \begin{array}{| l| } \hline    1^{o}.  \hspace{.4cm}    y_{ij}=μ_{i}+u_{ij} \\
2^{o}. \hspace{.4cm}   u_{ij}  \rightarrow N(0,σ)  \\    3^{o}. \hspace{.4cm}    u_{ij} \hspace{.2cm}  son \hspace{.2cm} independientes \hspace{.2cm} entre \hspace{.2cm} sí. \\ \hline   \end{array}  \)

Al ser μ_{i} constante para el tratamiento i, toda la fuente de aleatoriedad del modelo descansa en las variables de perturbación y la variable y_{ij} toma el carácter aleatorio de ellas; por ello, las hipótesis establecidas para las variables de perturbación pueden ser formuladas en términos de la variable respuesta. En otras palabras las variables \( y_{ij} \) son variables aleatorias independientes con distribución normal, con media \( μ_{i} \) y varianza \( σ^{2} \); es decir:

  • La esperanza de la variable respuesta en el nivel i-ésimo es \( μ_{i} \)

\( E[y_{ij}]=μ_{i}  \hspace{2cm}   \forall  j \)

Esta hipótesis exige que las \( n_{i} \) observaciones correspondientes al tratamiento i-ésimo tengan la misma media \( μ_{i} \).

  • La varianza de las variables \( y_{ij} \) es constante

\( Var[y_{ij}]=σ^{2}      \hspace{2cm}   \forall  i,j  \)

  • Las observaciones \(  y_{ij} \) son independientes entre sí

\(  Cov[y_{ij},y_{rk}]=0   \hspace{2cm}   i \neq r   \hspace{.4cm}  ó   \hspace{.4cm} j \neq k \)

  • La variable respuesta tiene distribución normal.

Si expresamos \(  μ_{i} \) como suma de dos términos: μ, común a todas las observaciones, y  \( τ_{i} \), específica de cada nivel, es decir

\(  μ_{i}=μ+τ_{i}  \hspace{2cm} [1.3] \)

sustituyendo ([1.3]) en la ecuación ([1.2]), obtenemos la primera expresión del modelo dada en ([1.1]), es decir

\( y_{ij}=μ+τ_{i}+u_{ij} \)

donde, el efecto producido por el nivel i-ésimo se define como la diferencia entre la media \( μ_{i} \), del nivel i, y la media general μ; es decir, los efectos de los tratamientos \( τ_{i} \) son las desviaciones de la media de cada nivel con respecto a la media general, por esta razón se debe verificar la relación

\( \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}=0  \hspace{2cm} [1.4] \)

De esta manera el valor esperado de la respuesta en el i-ésimo tratamiento es,

\( E[y_{ij}] \equiv μ_{i}=μ+τ_{i} \)

la suma de la media general y el efecto del i-ésimo tratamiento.

En este modelo se trata de contrastar si todos los niveles del factor producen el mismo efecto

\( H_0 \equiv   τ_{i}=0   \hspace{2cm}   \forall  i \)

frente a la alternativa

\( H_1 \equiv   τ_{i} \neq 0   \hspace{2cm} por \hspace{.2cm} lo \hspace{.2cm} menos \hspace{.2cm} para \hspace{.2cm} algún \hspace{.2cm} i  \)

o, equivalentemente, si todos los tratamientos tienen la misma media

\( H_0 \equiv  μ_1=μ_2= \cdots =μ_{I}=μ \)

frente a la alternativa

\( H_1 \equiv   μ_{i} \neq μ_{j} \hspace{.2cm} \) por lo menos para algún par (i,j).

Si  \( H_0 \) es cierta, todos los tratamientos tienen la misma media, μ, la pertenencia a un grupo u otro es irrelevante, y podemos considerar todas las observaciones como provenientes de una única población.

Hemos introducido dos formas de expresión del modelo:

\( y_{ij}=μ_{i}+u _{ij} \hspace{2cm}; \hspace{2cm} y_{ij}=μ+τ_{i}+u _{ij} \)

ambas formas son equivalentes. Para nuestro estudio emplearemos la segunda expresión.

Consideremos un factor con I niveles y que para cada nivel i se toman \( n_{i} \) observaciones. Los datos se organizan en forma tabular como se muestra en la Tabla 1-2

\(  \begin{array}{| c| c|c|c|c|} \hline Tratamiento  &   Observaciones          &              N^{o}  \hspace{.2cm} Observ.  &  Totales  &  Promedios \\ (nivel)       &     &                n_{i}  &  y_{i.}  &  \overline {y}_{i.} \\ \hline  1 &   y_{11}  \hspace{.2cm}   y_{12}  \hspace{.2cm}  \cdots   \hspace{.2cm}  y_{1j} \hspace{.2cm} \cdots   \hspace{.2cm} y_{1n_{1}}  &  n_1  &  y_{1.}  &  \overline {y}_{1.} \\ \hline  2  &  y_{21}  \hspace{.2cm}   y_{22}  \hspace{.2cm} \cdots   \hspace{.2cm}  y_{2j}  \hspace{.2cm}  \cdots   \hspace{.2cm}   y_{2n_{2}} &   n_2  &  y_{2.} &   \overline {y}_{2.} \\ \hline  \vdots &   \vdots   \hspace{.6cm}  \vdots   \hspace{.6cm}  \cdots \hspace{.6cm}   \vdots   \hspace{.6cm}  \cdots   \hspace{.6cm}  \vdots  &  \vdots  &  \vdots  &  \vdots  \\ \hline  i  &  y_{i1}   \hspace{.2cm} y_{i2}   \hspace{.2cm}  \cdots   \hspace{.2cm} y_{ij}   \hspace{.2cm}  \cdots \hspace{.2cm}  y_{in_{i}} &   n_{i}  &  y_{i.}   &  \overline {y}_{i.} \\ \hline  \vdots &   \vdots   \hspace{.6cm}  \vdots   \hspace{.6cm}  \cdots   \hspace{.6cm}  \vdots   \hspace{.6cm}  \cdots   \hspace{.6cm}  \vdots  &  \vdots  &  \vdots  &  \vdots  \\ \hline  I  &  y_{I1}   \hspace{.2cm} y_{I2}  \hspace{.2cm}  \cdots \hspace{.2cm}  y_{Ij}  \hspace{.2cm} \cdots  \hspace{.2cm}   y_{In_{I}} &   n_{I}  &  y_{I.}   &  \overline {y}_{I.} \\ \hline  & & N  &  y_{..}  & \overline { y}_{..} \\ \hline  \end{array}  \)

Tabla 1-2. Experimento unifactorial

donde utilizamos la siguiente notación:

  • N es el número total de observaciones, es decir, \( N= \displaystyle \sum_{i=1}^{I}n_{i} \)
  •  \( y_{ij} \) es la observación j-ésima del tratamiento i-ésimo; donde los subíndices varían  \( i =1, \cdots,  I  \hspace{.2cm} \) y \( \hspace{.2cm} j =1, \cdots,  n_{i} \)
  • \( y_{i.} \) es el total de las observaciones bajo el i-ésimo tratamiento, es decir

\( y_{i.}= \displaystyle \sum_{j=1}^{n_{i}}y_{ij} \hspace{2cm} i=1, \cdots ,I \)

  • \( \overline {y}_{i.} \) es el promedio de las observaciones bajo el i-ésimo tratamiento, es decir

\( \overline {y}_{i.} = \displaystyle \frac{y_{i.}}{n_{i}}= \displaystyle \frac{1}{n_{i}} \displaystyle \sum_{j=1}^{n_{i}}y_{ij} \hspace{2cm} i=1, \cdots ,I \)

  • \(  y_{..} \) es la suma de todas las observaciones, denominado el total general, es decir

\(  y_{..}= \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}= \displaystyle \sum_{i=1}^{I}y_{i.} \)

  • \( \overline {y}_{..} \) es la media general de las observaciones, es decir

\( \overline {y}_{..} = \displaystyle \frac {y_{..}}{N}= \displaystyle \frac {1}{N} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}= \displaystyle \frac {1} {N} \displaystyle \sum_{i=1}^{I}n_{i} \overline{y}_{i.} \)

En estas definiciones, la notación de “punto” en el subíndice indica la suma que se ha realizado sobre el subíndice reemplazado por el punto.

Si los tamaños \(  n_{i} \) de las muestras son distintos, el modelo recibe el nombre de modelo no-equilibrado o no-balanceado. Si todas las muestras tienen el mismo tamaño, \(  n_{i}=n \), el modelo se llama modelo equilibrado o balanceado.

En primer lugar, analizaremos el caso más general, el modelo no-equilibrado.

Estimación de los parámetros del modelo

Estimación por máxima verosimilitud

Como ya se ha explicado anteriormente, la hipótesis de normalidad sobre los términos de error conlleva el hecho de que las variables \( y_{ij} \) sean normales e independientes, por lo que es inmediato construir la función de verosimilitud asociada a la muestra \( y=(y_{11}, \cdots , y_{1n_{1}}, y_{21}, \cdots, y_{2n_{2}}, \cdots, y_{I1}, \cdots, y_{In_{I}}) \):

\( L(μ,τ_{i},σ^{2})=(2πσ^{2})^{-\frac {N} {2}} \exp \left ( – \displaystyle \frac {1}{2σ^{2}} \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}[y_{ij}-μ-τ_{i}]^{2} \right ) \hspace {2cm} [1.5]  \)

Los estimadores máximo-verosímiles para los parámetros \( μ, τ_{i} \) y \( σ^{2} \) son los valores para los cuales la función de verosimilitud alcanza su máximo. Para determinarlos habrá que obtener los puntos críticos de la función ([1.5]). Por conveniencia, en vez de maximizar la función de verosimilitud, se maximiza el logaritmo, ya que el logaritmo conserva los puntos críticos por ser una función creciente. En este caso,

\( \ln(L(μ,τ_{i},σ^{2}))=-\displaystyle \frac {N}{2} \ln (2π)- \displaystyle \frac {N}{2} \ln(σ^{2})- \displaystyle \frac {1} {2σ^{2}} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}[y_{ij}-μ-τ_{i}]^{2} \hspace{2cm} [1.6]  \)

Las derivadas parciales respecto de los parámetros del modelo son las siguientes:

\(  \begin{array}{ l} \\ \displaystyle \frac {\partial \ln L} {\partial μ} =   \displaystyle \frac {1}{σ^{2}} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}[y_{ij}-μ-τ_{i}] \\ \displaystyle \frac {\partial \ln L} {\partial τ_{i}}=    \displaystyle \frac {1}{σ^{2}} \displaystyle \sum_{j=1}^{n_{i}}[y_{ij}-μ-τ_{i}] \hspace {2cm} i=1,\cdots ,I  \hspace {2cm} [1.7] \\ \displaystyle \frac {\partial \ln L} {\partial σ^{2}}=    – \displaystyle \frac {N}{2σ^{2}}+ \displaystyle \frac {1} {2(σ^{2})^{2}} \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}[y_{ij}-μ-τ_{i}]^{2} \\ \end{array}  \)

Igualando estas derivadas parciales a cero, se obtiene un sistema de ecuaciones que proporciona los estimadores máximo verosímiles.

Veamos las ecuaciones y las soluciones que vamos obteniendo.

(i) De la primera ecuación, obtenemos

\(  \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}y_{ij}-Nμ-\displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}τ_{i}=0 \hspace {2cm} [1.8]  \)

Teniendo en cuenta que \(  \displaystyle \sum_{i}n_{i}τ_{i}=0 \), de la ecuación ([1.8]) se obtiene

\(  \widehat {μ} = \displaystyle \frac {  \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}}{N}=\overline{y}_{..} \hspace{2cm} [1.9] \)

(ii) Para \(  τ_{i} \), obtenemos

\(  \displaystyle \sum_{j=1}^{n_{i}}y_{ij}-n_{i} \widehat{μ} – \displaystyle \sum_{j=1}^{n_{i}}τ_{i}=0 \hspace{2cm} i=1,2, \cdots ,I  \hspace{2cm} [1.10] \)

De las ecuaciones ([1.10]) se obtienen los siguientes estimadores máximo-verosímiles para los parámetros \( τ_{i} \)

\(  \widehat {τ}_{i}= \displaystyle \frac { 1} {n_{i}} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}-\widehat{μ}= \overline {y}_{i.}-\overline{y}_{..} \hspace {2cm} [1.11]  \)

Estas soluciones

\(  \begin{array}{ l} \\ \widehat {μ}=    \overline {y} _{..} \\  \hspace{10cm} [1.12] \\  \widehat{τ}_{i}=   \overline { y}_{i.}- \overline {y}_{..} \hspace {2cm} i=1,2,\cdots,I, \\ \end{array}  \)

se pueden intuir fácilmente, ya que indican que la media general se puede estimar utilizando el promedio de todas las observaciones y cualquiera de los efectos de los tratamientos usando la diferencia entre el promedio correspondiente al tratamiento y el promedio total.

Finalmente, sustituyendo \(  μ \)  y \(  τ_{i} \) en la última ecuación de ([1.7]), obtenemos el estimador de máxima verosimilitud para la varianza poblacional

\( \widehat{σ}^{2}= \displaystyle \frac {1}{N} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}[y_{ij}- \widehat{μ}- \widehat{τ}_{i}]^{2}= \displaystyle \frac {1}{N} \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}[y_{ij}-\overline {y}_{i.}]^{2}= \displaystyle \frac {1}{N} \displaystyle \sum_{i=1}^{I}n_{i}s_{i}^{2}  \hspace{2cm} [1.13] \)

donde \( s_{i}^{2} \) es la varianza muestral del nivel i-ésimo.

Residuos

Los residuos se definen como las diferencias entre los valores observados \(  y_{ij} \) y los valores previstos por el modelo \(  \widehat{y}_{ij} \) y los denotamos por \(  e_{ij} \),

\( e_{ij}=y_{ij}- \widehat{y}_{ij}=y_{ij}-\widehat{μ}- \widehat{τ}_{i}=y_{ij}- \overline {y}_{i.} \)

Por lo tanto, el estimador máximo-verosímil, \( \widehat {σ}^{2} \), se puede escribir como

\( \widehat {σ}^{2}= \displaystyle \frac { \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}e_{ij}^{2}} {N} \)

Los residuos son los estimadores de los errores aleatorios \( u _{ij}=y_{ij}-μ-τ_{i} \), los cuales son variables aleatorias no observables. Se verifica que la suma de los residuos es cero, en efecto

\( \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} e_{ij}= \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} (y_{ij}- \overline {y}_{i.})=  \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}-\displaystyle \sum_{i=1}^{I}n_{i} \overline {y}_{i.}= \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} y_{ij}- \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} y_{ij} =0 \)

Propiedades de los estimadores máximo verosímiles

A continuación vamos a ver algunas propiedades que verifican los estimadores del modelo. Concretamente, vamos a determinar su esperanza, su varianza y su distribución en el muestreo.

1) Propiedades de \( \widehat {μ} \)

a) \( \widehat {μ} \) es un estimador centrado de  \( μ \), puesto que

\( E[ \widehat {μ}]=    E[ \overline {y}_{..}]= \displaystyle \frac { 1} {N} \displaystyle \sum_{i,j}E[y_{ij}]= \displaystyle \frac  {1}{N} \displaystyle \sum_{i,j}(μ+τ_{i})= \displaystyle \frac { 1}{N} \left (Nμ+ \displaystyle \sum_{i}n_{i}τ_{i} \right )=μ \)

b) La varianza de \( \widehat {μ} \) es \( σ^{2}/N \), puesto que al ser independientes las observaciones se verifica:

\( Var[\widehat {μ}]=    Var \left [ \displaystyle \sum_{i,j} \displaystyle \frac {y_{ij}}{N} \right ]= \displaystyle \sum_{i,j}  Var \left [ \displaystyle \frac {y_{ij}}{N} \right ]= \displaystyle \sum_{i,j} \displaystyle \frac {Var[y_{ij}]}{N^{2}}= \displaystyle \sum_{i,j} \displaystyle \frac {σ^{2}}{N^{2}}= \displaystyle \frac {σ^{2}} {N} \)

c) \( \widehat {μ} \) se distribuye según una Normal, puesto que dicho estimador es combinación lineal de las variables \( y_{ij} \) y éstas son variables aleatorias independientes con distribución Normal.

2) Propiedades de \( \widehat {τ_{i}}\)

a) \( \widehat {τ}_{i} \) es un estimador centrado de  \( τ_{i} \), puesto que

   \( \begin{array}{ll} E[ \widehat {τ}_{i}] = &   E[ \overline {y}_{i.}]-E[ \overline {y}_{..}]=E \left [ \displaystyle \frac {1} {n_{i}} \displaystyle \sum_{j}y_{ij}\right ]-μ= \displaystyle \frac {1}{n_{i}} E \left [ \displaystyle \sum_{j}(μ+τ_{i}+u_{ij}) \right ]-μ = \\  & = \displaystyle \frac {1} {n_{i}}\left [ n_{i}μ+n_{i}τ_{i}+ \displaystyle \sum_{j}E[u_{ij}] \right ]-μ=τ_{i} \\  \end{array}  \)

b) La varianza de \( \widehat {τ}_{i} \) es \( (N-n_{i})  \displaystyle \frac {σ^{2}} {Nn_{i}}\), puesto que

  \( \begin{array}{ll}  Var [ \widehat {τ}_{i}] = &  Var [ \overline {y}_{i.}- \overline {y}_{..}]= Var \left [  \displaystyle \frac {1}{n_{i}} \displaystyle \sum_{j}y_{ij}- \displaystyle \frac {1}{N} \displaystyle \sum_{i,j}y_{ij} \right ]= \\  & = \displaystyle \frac {1}{n_{i}^{2}} \displaystyle \sum_{j}Var[y_{ij}]+ \displaystyle \frac {1}{N^{2}} \displaystyle \sum_{i,j}Var[y_{ij}]- \displaystyle \frac {2} {Nn_{i}} Cov \left [ \displaystyle \sum_{j}y_{ij}, \displaystyle \sum_{i,j}y_{ij} \right ]= \\  & = \displaystyle \frac  {1} {n_{i}^{2}} \displaystyle \sum_{j}σ^{2}+ \displaystyle \frac {1} {N^{2}} \displaystyle \sum_{i,j}σ^{2} – \displaystyle \frac {2}{Nn_{i}}n_{i}σ^{2}= \\  & = \displaystyle \frac {1} {n_{i}} σ^{2}+ \displaystyle \frac {1}{N} σ^{2}- \displaystyle \frac {2σ^{2}}{N}= \displaystyle \frac {σ^{2}}{n_{i}}- \displaystyle \frac {σ^{2}} {N}=(N-n_{i}) \displaystyle \frac {σ^{2}}{Nn_{i}} \\  \end{array}  \hspace {2cm} [1.16]  \)

En el caso del modelo equilibrado se deduce fácilmente que la varianza de \( \widehat {τ}_{i} \) es  \( (I-1)σ^{2}/N \)

c) \( \widehat {τ}_{i} \) se distribuye según una Normal, puesto que dicho estimador está expresado como función lineal de variables aleatorias con distribución Normal.

3) Propiedades de \( \widehat {σ}^{2}\)

\( \widehat {σ}^{2}\) no es un estimador insesgado de \( σ^{2} \). Para demostrarlo veamos en primer lugar que \( (N\widehat {σ}^{2})/(σ^{2}) \) se distribuye según una \( χ^{2} \) con \( N-I \) grados de libertad.

  \( \begin{array}{ll} \displaystyle \frac {N \widehat {σ}^{2}}{σ^{2}} = &  \displaystyle \frac {1}{σ^{2}} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}e^{2}_{ij}=\displaystyle \frac  {1}{σ^{2}}\displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}(y_{ij}- \overline{y}_{i.})^{2}= \\  & = \displaystyle \sum_{j=1}^{n_{1}} \left ( \displaystyle \frac {y_{1j}-\overline {y}_{1.}}{σ} \right )^{2} + \displaystyle \sum_{j=1}^{n_{2}} \left ( \displaystyle \frac {y_{2j}- \overline {y}_{2.}}{σ} \right )^{2} + \cdots + \displaystyle \sum_{j=1}^{n_{I}} \left ( \displaystyle \frac {y_{Ij}-\overline {y}_{I.}}{σ} \right )^{2} \\  \end{array}  \hspace{2cm} [1.17]  \)

Estos sumandos son estadísticamente independientes entre sí al serlo las observaciones muestrales. Además se verifica

   \( \displaystyle \sum_{j=1}^{n_{i}} \left ( \displaystyle \frac {y_{ij}- \overline{y}_{i.} }{σ^{2}} \right )^{2}= \displaystyle \frac {n_{i}s_{i}^{2}}{σ^{2}}    \)

se distribuye según una  \( χ^{2}    \) con \( n_{i}-1    \) grados de libertad.

Por tanto,

   \(  \displaystyle \frac {N \widehat {σ}^{2}}{σ^{2}}  \rightarrow  χ_{\sum_{i}(n_{i}-1)}^{2}=χ_{N-I}^{2} \hspace {2cm} [1.18]    \)

Puesto que la esperanza matemática de una distribución \( χ^{2}    \) coincide con sus grados de libertad, se concluye que

 \(  E \left [ \displaystyle \frac {N \widehat{σ}^{2}}{σ^{2}} \right ]=N-I \Rightarrow E[σ^{2}]= \displaystyle \frac {N-I}{N}σ^{2} \)

luego, como queríamos demostrar,  \( \widehat{σ}^{2}  \) no es un estimador insesgado de  \( σ^{2}  \). Ahora bien, a partir de este resultado se construye fácilmente un estimador centrado simplemente considerando

\( \widetilde{σ}^{2} = \displaystyle \frac {N}{N-I} \widehat {σ}^{2} \)

y por tanto,

\(  E[ \widetilde {σ}^{2}]=σ^{2} \)

Dicho estimador recibe el nombre de varianza residual, pues da información acerca de cuanta variabilidad deja de explicar el modelo y se acumula en los términos de error o residuos. La varianza residual se denota por \(  \widehat{S}_{R}^{2} \) y se expresa, por tanto, de la siguiente forma

\(  \widetilde {σ}^{2}= \widehat {S}_{R}^{2}= \displaystyle \frac { \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}[y_{ij}- \overline{y}_{i.}]^{2} }{ N-I }= \displaystyle \frac { \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}e_{ij}^{2}} {N-I } \hspace{2cm} [1.19] \)

También se puede determinar el valor esperado de σ² de la siguiente forma:

En primer lugar, calculamos \(  E[e_{ij}^{2}] \)

  \( \begin{array}{ll} E[e_{ij}^{2}] = &    Var[e_{ij}]=Var[y_{ij}- \overline {y}_{i.}] = \\  & = Var[y_{ij}]+Var[ \overline {y}_{i.}]-2Cov[y_{ij}, \overline {y}_{i.}] = \\  & = σ^{2}+ \displaystyle \frac {σ^{2}} {n_{i}}-2Cov \left [y_{ij}, \displaystyle \frac {1}{n_{i}} \displaystyle \sum_{j=1}^{n_{i}}y_{ij} \right ]=σ^{2}+ \displaystyle \frac {σ^{2}} {n_{i}}-2 \displaystyle \frac {σ^{2}}{n_{i}} = \\  & = σ^{2} – \displaystyle \frac {σ^{2}} {n_{i}}  \\  \end{array}    \)

Por lo tanto,

  \( \begin{array}{ll} E \left [ \displaystyle \sum_{i,j} e_{ij}^{2} \right ] = &   \displaystyle \sum_{i,j} E \left [e_{ij}^{2} \right ]= \displaystyle \sum_{i,j} \left [σ^{2} – \displaystyle \frac {σ^{2}} {n_{i}} \right ] = \\  & =  Nσ^{2}- \displaystyle \sum_{i,j} \displaystyle \frac {σ^{2}} {n_{i}}=Nσ^{2}-σ^{2} \displaystyle \sum_{i} \displaystyle \frac {1}{n_{i}}n_{i} = \\  & = (N-I)σ^{2} \\  \end{array}    \)

Entonces

 \( E[\widehat{σ}^{2}]= E \left [ \displaystyle \sum_{i,j} \displaystyle \frac {e_{ij}^{2}} {N} \right ]=  \displaystyle \frac {N-I }{N} σ^{2} \)

En resumen,

 \( \widehat {μ}  \rightarrow  N \left (μ, \displaystyle \frac {σ^{2}} {N} \right )  \)

 \( \widehat{τ}_{i} \rightarrow N \left (τ_{i},(N-n_{i}) \displaystyle \frac  {σ^{2}} {Nn_{i}} \right )  \)

 \( N \displaystyle \frac { \widehat {σ}^{2}} {σ^{2}} \rightarrow  χ_{N-I}^{2}  \)

Estimación por mínimos cuadrados

Hemos planteado el modelo de efectos fijos como

 \( y_{ij}=μ+τ_{i}+u_{ij}  \)

en el supuesto de que las perturbaciones, \( u_{ij} \), son variables aleatorias independientes e idénticamente distribuidas según una Normal de media 0 y varianza \( σ^{2} \). Las hipótesis de dicho modelo se pueden relajar en el siguiente sentido:

Las perturbaciones son variables aleatorias que verifican

\( 1^{o}) \)

\( E[u_{ij}]=0  \hspace{2cm} \forall i,j  \)

\( 2^{o}) \)

\( Var[u_{ij}]=σ^{2}     \hspace{2cm} \forall i,j  \)

 

\( 3^{o})  \)

\( Cov[u_{ij},u_{rk}]=E[u_{ij}u_{rk}]=0  \hspace{2cm}   i \neq r  \hspace{.4cm} ó \hspace{.4cm}  j \neq k \)

Hay que hacer notar que entre las hipótesis del modelo no se hace ninguna referencia a la distribución específica de las perturbaciones. En estas condiciones, la estimación de los parámetros se aborda mediante el método de mínimos cuadrados.

Con el fin de obtener los estimadores de \(  μ  \) y \( τ_{i} \) mediante el método de mínimos cuadrados, consideremos la suma de cuadrados de los errores, ecuación ([1.20]), y determinemos los valores de \(  μ  \) y \( τ_{i} \), que notaremos por \(  \widehat {μ}  \) y \( \widehat{τ}_{i} \), que minimizan dicha expresión

\(  \Lambda = \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}u _{ij}^{2} = \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}} (y_{ij}-μ-τ_{i})^{2} \hspace{2cm} [1.20] \)

Para ello, se deriva \(  \Lambda \) respecto de \( μ \) y \( τ_{i} \) y se particulariza en \( \widehat {μ}  \) y \( \widehat {τ}_{i} \) obteniéndose un sistema de I+1 ecuaciones con I+1 incógnitas

\(  \left.  \begin{array} \\  \left. \displaystyle \frac {  \partial \Lambda }{ \partial μ } \right |_ {\widehat {μ}, \widehat{τ}_{i}}=    0 \\ \\ \left. \displaystyle \frac {  \partial\Lambda }{ \partial τ_{i} } \right |_ {\widehat {μ}, \widehat{τ}_{i}} =    0 \\ \\  i=1,2, \cdots ,I  \end{array} \right \} \)

Dichas ecuaciones dan lugar al sistema

\(  \left.  \begin{array} \\  -2 \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} (y_{ij}- \widehat {μ}- \widehat {τ}_{i})    =0 \\ \\ -2 \displaystyle \sum_{j=1}^{n_{i}}(y_{ij}- \widehat{μ}- \widehat {τ}_{i})    =0 \\ \\  i=1,2, \cdots ,I \end{array} \right \} \hspace{2cm} [1.21] \)

que se denomina sistema de ecuaciones normales de mínimos cuadrados. Este sistema de ecuaciones coincide con el sistema que verifican los estimadores de máxima verosimilitud de los parámetros \(  μ \) y \( τ_{i} \), cuando se impone la hipótesis de normalidad, cuyas soluciones vienen dadas por las expresiones ([1.9]) y ([1.11]), respectivamente. Obsérvese que por este método no se obtiene ninguna ecuación para estimar \( σ^{2} \). Por analogía con el “caso normal”, se utiliza como estimador de \( σ^{2} \) la expresión

\(  \widetilde {σ}^{2}= \widehat{S}_{R}^{2}= \displaystyle \frac{ \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}e_{ij}^{2}}{N-I} \)

Aunque la hipótesis de normalidad no es necesaria para estimar los parámetros mediante el método de mínimos cuadrados, dicha hipótesis resultará imprescindible para establecer las distribuciones de los estadísticos involucrados en el proceso de contraste de hipótesis.

Observación 1.1

Nótese que la inclusión de la hipótesis de normalidad de las perturbaciones conduce a la independencia entre dichas variables, puesto que en caso de normalidad, incorrelación implica independencia.

Descomposición de la variabilidad

Para comparar los efectos de los distintos niveles de un factor se emplea la técnica estadística denominada análisis de la varianza, abreviadamente ANOVA, que está basada en la descomposición de la variabilidad total de los datos en distintas componentes.

Se considera la siguiente identidad:

\(  y_{ij}= \overline {y}_{..}+( \overline {y}_{i.}- \overline {y}_{..})+(y_{ij}- \overline {y}_{i.}) \hspace{2cm} [1.23]  \)

que expresa cada variable y_{ij} como la suma de tres términos:

La media total \( \overline {y}_{..} \), es decir el estimador de \( μ \)

El efecto producido por el tratamiento i-ésimo, (desviación de la media del i-ésimo nivel del factor respecto de la media total), \( \overline {y}_{i.}- \overline {y}_{..} \), es decir el estimador de \( τ_{i} \)

La desviación entre los valores observados y los valores previstos por el modelo, \( y_{ij}- \overline {y}_{i.} \), es decir el estimador de \( u_{ij} \).

Por tanto, la expresión ([1.23]) también se puede poner en la forma

\(  y_{ij}= \widehat {μ}+ \widehat {τ}_{i}+e_{ij}  \hspace{2cm} [1.24] \)

Consideramos esta descomposición para todas las observaciones, que expresada en forma vectorial resulta

\(  Y= \underline {\widehat {μ}}+ \underline {\widehat {τ}}+e \hspace{2cm} [1.25] \)

siendo

\(   \begin{array} {ll} \\  Y= &   (y_{11}, \cdots,  y_{1n_{1}}, y_{21}, \cdots, y_{2n_{2}}, \cdots, y_{I1}, \cdots, y_{In_{I}})^{′} \\ \underline {\widehat {μ}} = &  ( \overline {y}_{..}, \cdots,  \overline {y}_{..}, \overline {y}_{..}, \cdots,  \overline {y}_{..},  \cdots  \overline {y}_{..}, \cdots,    \overline {y}_{..})^{′} \\  \underline {\widehat {τ}}=  &  ( \overline {y}_{1.}- \overline {y}_{..}, \cdots,  \overline {y}_{1.}- \overline {y}_{..}, \overline {y}_{2.}- \overline {y}_{..,} \cdots, \overline {y}_{2.}- \overline {y}_{..}, \cdots, \overline {y}_{I.}- \overline {y}_{..}, \cdots, \overline {y}_{I.}- \overline {y}_{..})^{′}  \\ e =   &  (y_{11}- \overline {y}_{1.},…,y_{1n_{1}}- \overline {y}_{1.},y_{21}- \overline {y}_{2.,}…,y_{2n_{2}}- \overline {y}_{2.}, \cdots,y_{I1}- \overline {y}_{I.}, \cdots,y_{In_{I}}- \overline {y}_{I.})^{′} \\ \end{array}  \)

donde

  • \( Y \): Contiene N términos independientes \( y_{ij} \). Tiene, por tanto, N grados de libertad.
  • \( μ \): Contiene N coordenadas iguales a \(  \overline {y}_{..} \). Tiene, por tanto, un grado de libertad.
  • \(  τ \): Contiene I valores distintos \(  \overline {y}_{i.}- \overline {y}_{..}\), cada uno repetido \( n_{i}\) veces y sujetos a una ecuación de restricción, \( \sum_{i}n_{i}( \overline {y}_{i.}- \overline {y}_{..})=0 \). Tiene, por tanto, \( I-1 \) grados de libertad.
  • \(  e \): Contiene los \( N \) residuos sujetos a \( I \) ecuaciones de restricción, \( \sum_{j}(y_{ij}- \overline {y}_{i.})=0 \) para \( i=1, \cdots ,I \). Tiene, por tanto, \( N-I \) grados de libertad.

La descomposición ([1.25]) está formada por componentes ortogonales dos a dos, ya que se verifica

\(   \begin{array} {ll} \\  \widehat {\underline {μ}}^{′} \times \widehat { \underline{τ} }= &     \overline {y}_{..} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} \widehat {τ}_{i}=    0 \\ \\ \widehat {\underline {μ}}^{′} \times e =   & \overline { y}_{..} \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}e_{ij}=    0 \\ \\ \widehat { \underline{τ} } ^{′} \times e=   & \displaystyle \sum_{i=1}^{I} \widehat {τ}_{i} \displaystyle \sum_{j=1}^{n_{i}}e_{ij}=    0  \\ \end{array}  \)

La ecuación ([1.23]) también se puede expresar de la siguiente forma

\(  y_{ij}- \overline {y}_{..}=( \overline {y}_{i.}- \overline {y}_{..})+(y_{ij}- \overline {y}_{i.}) \hspace {2cm} [1.26] \)

si elevamos al cuadrado los dos miembros de la expresión anterior y sumamos para todas las observaciones, tenemos

\(   \begin{array} {ll} \\  \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} (y_{ij}- \overline {y}_{..})^{2} = & \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}\left  [ ( \overline {y}_{i.}- \overline  {y}_{..})+(y_{ij}- \overline {y}_{i.}) \right ]^{2}= \displaystyle \sum_{i=1}^{I} n_{i}( \overline {y}_{i.}- \overline {y}_{..})^{2}+ \\   & + \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}(y_{ij}- \overline {y}_{i.})^{2}+2 \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}( \overline {y}_{i.}- \overline {y}_{..})(y_{ij}- \overline {y}_{i.}) \\ \end{array} \hspace {2cm} [1.27]  \)

Los dobles productos se anulan, ya que los términos son ortogonales, por lo que dicha ecuación queda en la forma

  \(  \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}} (y_{ij}- \overline {y}_{..})^{2} =  \displaystyle \sum_{i=1}^{I}n_{i}( \overline {y}_{i.}- \overline {y}_{..})^{2}+ \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}(y_{ij}- \overline {y}_{i.})^{2} \hspace {2cm} [1.28]   \)

que representa la ecuación básica del análisis de la varianza, que simbólicamente podemos escribir

  \( SCT=SCTr+SCR   \)

donde hemos desglosado la variabilidad total de los datos

\( SCT= \displaystyle \sum_{ij}(y_{ij}- \overline {y}_{..})^{2} \)

denominada suma total de cuadrados, en dos partes:

1)  \( SCTr= \sum_{i=1}^{I}n_{i}(\overline {y}_{i.}- \overline {y}_{..})^{2}  \), la suma de cuadrados de las desviaciones de las medias de los tratamientos respecto de la media general, denominada suma de cuadrados entre tratamientos  o variabilidad explicada

2) \( SCR=\sum _{i=1}^{I} \sum_{j=1}^{n_{i}}(y_{ij}- \overline {y}_{i.})^{2} \), la suma de cuadrados de las desviaciones de las observaciones de cada nivel respecto de su media, denominada suma de cuadrados dentro de los tratamientos, variabilidad no-explicada o residual.

A partir de las sumas de cuadrados anteriores se pueden construir los denominados cuadrados medios, definidos como los cocientes entre dichas sumas de cuadrados y sus correspondientes grados de libertad.

∗ Cuadrado medio total

\( \widehat{S}_{T}^{2}= \displaystyle \frac { \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}(y_{ij}-\overline {y}_{..})^{2}} {N-1} \hspace {2cm} [1.29]  \)

∗ Cuadrado medio entre tratamientos

\( \widehat {S}_{Tr}^{2}= \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}( \overline {y}_{i.}- \overline {y}_{..})^{2}} {I-1} \hspace {2cm} [1.30]  \)

∗ Cuadrado medio residual

\(  \widehat {S}_{R}^{2}= \displaystyle \frac { \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}(y_{ij}-\overline {y}_{i.})^{2}} {N-I} \hspace {2cm} [1.31]  \)

Nota: El número de grados de libertad asociados a \( SCT \) es \( N-1 \) ya que \(  \sum_{i,j}(y_{ij}- \overline {y}_{..})=0 \)

Una notación muy utilizada también en la práctica para los cuadrados medios total, entre tratamientos y residual es, respectivamente, CMT, CMTr y CMR o CME.

A continuación vamos a calcular las esperanzas matemáticas de estos cuadrados medios. En primer lugar, recordemos la expresión del modelo ([1.1])

\( y_{ij}=μ+τ_{i}+u_{ij} \)

Consideremos las expresiones de \( y_{i.}, \overline {y}_{i.}, y_{..} \) e \( \overline {y}_{..} \), en función de los parámetros del modelo, con objeto de poder hallar las esperanzas de las varianzas muestrales. También tengamos en cuenta que \( \sum_{i}n_{i}τ_{i}=0 \). Así tenemos:

\(   \begin{array} {ll} \\ y_{i.} = & n_{i}μ+n_{i}τ_{i}+u_{i.} \\    \overline {y}_{i.}= & μ+τ_{i}+ \overline {u}_{i.} \\ y_{..}= & Nμ+ \displaystyle \sum_{i}n_{i}τ_{i}+u_{..}  \\   \overline { y} _{..}= & μ+ \overline {u}_{..} \\ \end{array} \hspace {2cm} [1.32]  \)

\(  1^{o}) \) El cuadrado medio entre grupos lo podemos expresar como:

\(   \begin{array} {ll} \\ \widehat{S}_{Tr}^{2}=  &   \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}(\overline {y}_{i.}-\overline{y}_{..})^{2}} {I-1}= \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i} \left [ τ_{i}+(\overline {u}_{i.}-\overline {u}_{..}) \right ]^{2}} {I-1}= \\  &   = \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}^{2}} {I-1}+ \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}(\overline {u}_{i.}- \overline {u}_{..})^{2}} {I-1} + \displaystyle \frac {2 \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}(\overline {u}_{i.}- \overline {u}_{..}) } {I-1} \\ \end{array}   \)

y su esperanza matemática será la suma de las esperanzas matemáticas de cada sumando; es decir,

\(   \begin{array} {ll} \\  E[ \widehat {S}_{Tr}^{2}]=  &    E \left [ \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}^{2}} {I-1} \right ]+E \left [ \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}(\overline {u}_{i.}-\overline {u}_{..})^{2}} {I-1} \right ]+ \\  & + E \left [ \displaystyle \frac { 2 \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}(\overline {u}_{i.}- \overline {u}_{..})} {I-1} \right ] \\ \end{array} \hspace {2cm} [1.33]  \)

Ahora bien, puesto que:

a) El modelo es de efectos fijos \(  E[τ_{i}]=τ_{i} \), entonces

\( E \left [ \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}^{2}} {I-1} \right ]= \displaystyle \frac {1} {I-1} \displaystyle \sum_{i=1}^{I}n_{i}E[τ_{i}^{2}]= \displaystyle \frac {1} {I-1} \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}^{2}  \hspace {2cm} [1.34]  \)

b) Como \( E[\widehat {τ}_{i}-E[ \widehat {τ}_{i}]]^{2} \) es la \( Var( \widehat {τ}_{i}) \), cuya expresión, determinada en la subsección (Estimación de los parámetros del modelo) es  \( (N-n_{i})σ^{2}/(Nn_{i}) \), luego

\(   \begin{array} {ll} \\  E \left [ \displaystyle \frac { \displaystyle \sum_{i=1}^{I}n_{i}( \overline {u}_{i.}- \overline {u}_{..})^{2}} {I-1} \right] =  &   \displaystyle \sum_{i=1}^{I} \displaystyle \frac {n_{i}} {I-1} E[ \overline{u}_{i.}- \overline {u}_{..}]^{2}=  \\  & = \displaystyle \sum_{i=1}^{I} \displaystyle \frac {n_{i}}{I-1}E[( \overline {y}_{i.}- \overline {y}_{..})-τ_{i}]^{2} = \\ &  =  \displaystyle \sum_{i=1}^{I} \displaystyle \frac {n_{i}} {I-1} E[ \widehat {τ}_{i}-E[ \widehat{τ}_{i}]]^{2}= \displaystyle \sum_{i=1}^{I} \displaystyle \frac {n_{i}}{I-1}Var(\widehat{τ}_{i}) = \\ & = \displaystyle \sum_{i=1}^{I} \displaystyle \frac {n_{i}}{I-1} (N-n_{i}) \displaystyle \frac {σ^{2}} {Nn_{i}}= \displaystyle \frac {σ^{2}} {N(I-1)} (IN-N)=σ^{2} \\  \end{array} \hspace {2cm} [1.35]  \)

c) Como \(  E( \overline {u}_{i.}- \overline {u}_{..})=0 \), entonces

\(  E  \left [ \displaystyle \frac { 2 \displaystyle \sum_{i=1}^{I}n_{i}( \overline {u}_{i.}- \overline {u}_{..})} {I-1} \right] = \displaystyle \frac {2} {I-1} \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}E[\overline {u}_{i.}- \overline {u}_{..}]=0  \hspace {2cm} [1.36]  \)

Por lo tanto, sustituyendo las expresiones ([1.34], ([1.35]) y ([1.36]) en ([1.33]) tenemos que el valor esperado del cuadrado medio entre grupos es:

\( E[\widehat{S}_{Tr}^{2}]= \displaystyle \frac {\displaystyle \sum_{i=1}^{I}n_{i}τ_{i}^{2}} {I-1}+σ^{2}  \hspace {2cm} [1.37]  \)

\(  2^{o}) \) Ya hemos visto en la subsección ([1.31]) que la varianza residual es un estimador insesgado de la varianza poblacional, es decir

\( E[\widehat{S}_{R}^{2}]=σ^{2} \)

\(  3^{o}) \) Por último, calculemos el valor esperado del cuadrado medio total. Para ello nos basaremos en la ecuación básica del ANOVA que podemos poner en función de los cuadrados medios de la siguiente forma:

\(  (N-1) \widehat{S}_{T}^{2}=(I-1) \widehat {S}_{Tr}^{2}+(N-I) \widehat {S}_{R}^{2} \)

tomando esperanzas matemáticas en ambos miembros y aplicando la linealidad del valor esperado, tenemos

\( (N-1)E[ \widehat {S}_{T}^{2}]=(I-1)E[ \widehat {S}_{Tr}^{2}]+(N-I)E[ \widehat {S}_{R}^{2}] \)

de donde, sustituyendo los valores obtenidos anteriormente para \( E[ \widehat {S}_{Tr}^{2}]  \) y \( E[ \widehat {S}_{R}^{2}] \), obtenemos

 \( E[ \widehat {S}_{T}^{2}]=   \displaystyle \frac {  \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}^{2}} {N-1} + σ^{2} \)

Análisis estadístico

El contraste estadístico de interés en este modelo, como mencionamos al principio de esta sección, es el que tiene como hipótesis nula la igualdad de medias de los tratamientos:

 \( H_{0} \equiv μ_1=μ_2= \cdots =μ_{I}=μ  \)

o equivalentemente

 \( H_{0} \equiv τ_1=τ_2= \cdots =τ_{I}=0  \)

Como hemos comprobado anteriormente se verifica que:

a)  \( \widehat {S}_{R}^{2}=SCR/(N-I)  \) es un estimador insesgado de la varianza  \( σ^{2}  \) independientemente de que se verifique la hipótesis nula.

b) Y si no hay diferencia entre las medias de los I tratamientos; es decir, si es cierta la hipótesis nula, el primer sumando de  \( E[ \widehat{S}_{T_{r}}^{2}]  \) es nulo, y entonces  \( \widehat {S}_{Tr}^{2}  \) es un estimador insesgado de  \( σ^{2}  \).

Sin embargo, hay que notar que si existe diferencia en las medias de los tratamientos, el valor esperado del cuadrado medio entre tratamientos es mayor que  \( σ^{2}  \). De todo ésto podemos deducir que el contraste puede efectuarse comparando  \( \widehat {S}_{Tr}^{2}  \) y  \( \widehat {S}_{R}^{2}  \).

Para ello, vamos a estudiar la distribución de SCT, SCTr y SCR en la hipótesis de que los tratamientos no influyen, es decir bajo la hipótesis de que las variables aleatorias  \( y_{ij} \rightarrow  N(μ,σ^{2}) \).

Tipificando las variables aleatorias \(  y_{ij}  \) en la descomposición ([1.23]) , se tiene

 \(  \displaystyle \frac {y_{ij}-μ } {σ}= \displaystyle \frac { \overline {y}_{..}-μ } {σ}+ \displaystyle \frac { \overline {y}_{i.}- \overline {y}_{..} } {σ }+ \displaystyle \frac {y_{ij}- \overline {y}_{i.}} {σ} \hspace {2cm} [1.39]  \)

Considerando esta descomposición para todas las observaciones y expresándola en forma vectorial, tenemos

 \( Z=Z_{1}+Z_{2}+Z_{3} \hspace {2cm} [1.40]  \)

siendo

\(   \begin{array} {ll} \\  Z =  &   \displaystyle \frac {1} {σ} (y_{11}-μ,\cdots , y_{1n_{1}}-μ, y_{21}-μ,\cdots, y_{2n_{2}}-μ,\cdots, y_{I1}-μ,\cdots, y_{In_{I}}-μ)^{′} \\ \\ Z_{1} =  &  \displaystyle \frac {1} {σ} (\overline {y}_{..}-μ,\cdots s , \overline {y}_{..}-μ, \overline {y}_{..}-μ,\cdots  \cdots , \overline {y}_{..}-μ, \cdots ,  \overline {y}_{..}-μ, \cdots , \overline {y}_{..}-μ)^{′} \\ \\  Z_2=   &  \displaystyle \frac {1} {σ}( \overline {y}_{1.}- \overline {y}_{..}, \cdots   , \overline {y}_{1.}- \overline {y}_{..}, \overline {y}_{2.}- \overline {y}_{..}, \cdots , \overline {y}_{2.}- \overline {y}_{..}, \cdots , \overline {y}_{I.}- \overline {y}_{..}, \cdots , \overline {y}_{I.}- \overline {y}_{..})^{′} \\ \\ Z_3 =  &  \displaystyle \frac {1} {σ}(y_{11}- \overline {y}_{1.}, \cdots ,y_{1n_{1}}- \overline {y}_{1.},y_{21}-\overline {y}_{2.}, \cdots ,y_{2n_{2}}- \overline {y}_{2.}, \cdots .,y_{I1}- \overline {y}_{I.}, \cdots ,y_{In_{I}}- \overline {y}_{I.})^{′} \\ \end{array}   \)

donde

  • \( Z \): Contiene N términos independientes \( \displaystyle \frac {1} {σ}(y_{ij}-μ) \). Tiene, por tanto, N grados de libertad.
  • \( Z_1 \): Contiene N coordenadas iguales a  \( \displaystyle \frac {1} {σ} (\overline {y}_{..}-μ) \). Tiene, por tanto, un grado de libertad.
  • \( Z_2 \): Contiene I valores distintos \( \displaystyle \frac {1} {σ} (\overline {y}_{i.}- \overline {y}_{..}) \), cada uno repetido \( n_{i} \) veces y sujetos a una ecuación de restricción, \( \sum_{i}n_{i}(\overline {y}_{i.}- \overline {y}_{..})=0 \). Tiene, por tanto, \( I-1 \) grados de libertad.
  • \( Z_3 \): Contiene N coordenadas \( \displaystyle \frac {1} {σ} (y_{ij}- \overline {y}_{i.}) \), sujetas a I ecuaciones de restricción, \( \sum_{j}(y_{ij}- \overline {y}_{i.})=0 \) para \( i=1, \cdots,I \). Tiene, por tanto, \( N-I \) grados de libertad.

Bajo la hipótesis nula hemos realizado una descomposición del vector Z, de variables N(0,1) independientes, en componentes ortogonales. Por lo tanto, podemos aplicar el Teorema de Cochran de descomposición en formas cuadráticas cuyo enunciado es el siguiente:

Teorema 1.1

Consideremos un vector X de dimensión n cuyas coordenadas son variables aleatorias independientes con distribución Normal de media 0 y desviación típica 1, N(0,1). Supongamos que:

a)

\( X=X_1+X_2+ \cdots +X_{r} \hspace{2cm} (r \leq n) \)

donde \( X_{j}\) tiene \( n_{j} \) grados de libertad, \( (j=1,2, \cdots ,r) \).

b) Los vectores \( X_{j} \) son ortogonales entre sí y por tanto \( n= \displaystyle \sum_{j=1}^{r}n_{j}\)

En estas condiciones se verifica que los cuadrados de los módulos de cada uno de los vectores se distribuyen como variables aleatorias \( χ^{2} \) independientes con \( n_{j}\) grados de libertad.

Puesto que la descomposición ([1.40]) cumple las condiciones del Teorema de Cochran, se verifica que

i)

\( \displaystyle \frac {SCTr} {σ^{2}}= \displaystyle \frac { \displaystyle \sum_{i}n_{i}(\overline {y}_{i.}-\overline {y}_{..})^{2}} {σ^{2}}  \rightarrow  χ_{I-1}^{2} \)

ii)

\( \displaystyle \frac {SCR} {σ^{2}}= \displaystyle \frac { \displaystyle \sum_{i,j}(y_{ij}- \overline {y}_{i.})^{2}} {σ^{2}} \rightarrow  χ_{N-I}^{2} \)

y además estas dos distribuciones son independientes entre sí.

Hay que notar que:

  • \( SCR/σ^{2} \) se distribuye como una \( χ^{2} \) con N-I grados de libertad, se verifique o no la hipótesis nula, como ya vimos en la subsección (Estimación de los parámetros del modelo)
  • \( SCTr/σ^{2} \) se distribuye como una \( χ^{2} \) con I-1 grados de libertad, solamente cuando se verifique la hipótesis nula.

Por consiguiente, bajo la hipótesis nula, el cociente

\( F= \displaystyle \frac { \displaystyle \frac {SCTr/σ^{2}}{I-1}}{ \displaystyle \frac {SCR/σ^{2}}{N-I}}= \displaystyle \frac { \widehat {S}_{Tr}^{2}}{ \widehat {S}_{R}^{2}} \hspace{2cm} [1.41]  \)

sigue una distribución F de Snedecor con I-1 y N-I grados de libertad y será el estadístico de contraste para probar dicha hipótesis nula. Por otra parte, si \( H_0 \) es cierta, tanto el numerador como el denominador del estadístico de contraste ([1.41]) son estimadores insesgados de \( σ^{2} \), mientras que si \( H_0 \) no es cierta, la esperanza matemática de \( \widehat {S}_{Tr}^{2} \) será mayor que \( σ^{2} \). Por tanto, rechazaremos \( H_0 \) cuando el valor de dicho estadístico sea mayor que el correspondiente valor teórico de la distribución F con I-1 y N-I grados de libertad al nivel de significación \( α \).

El procedimiento práctico para efectuar el contraste es el siguiente:

\( 1^{o}) \) Se fija un nivel de significación \( α \)

\( 2^{o})  \) Se calcula el valor experimental de F,  \( F_{exp} \), dado por \( \widehat {S}_{Tr}^{2}/ \widehat {S}_{R}^{2} \)

\( 3^{o}) \) Se compara el valor \( F_{exp} \) con la F teórica al nivel de significación \( α \), tomándose la siguiente decisión

Aceptar \( H_0 \) si    \( F_{exp} \leq F_{α;I-1,N-I}\)

Rechazar \( H_0 \) si    \( F_{exp}>F_{α;I-1,N-I} \)

La hipótesis \( H_0 \) que se contrasta es que simultáneamente los \( τ_{i}=0 \), de modo que rechazar dicha hipótesis quiere decir que al menos uno de los efectos es distinto de cero.

Para una mayor sencillez en el cálculo se utilizan las expresiones abreviadas de SCT, SCTr y SCR

\(   \begin{array} {ll} \\  SCT =  &      \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}^{2}- \displaystyle \frac {y_{..}^{2}} {N} \\ \\ SCTr  =  &     \displaystyle \sum_{i=1}^{I} \displaystyle \frac {y_{i.}^{2}} {n_{i}}- \displaystyle \frac {y_{..}^{2}} {N} \\ \\ SCR =   &  \displaystyle \sum_{i=1}^{I} \displaystyle \sum _{j=1}^{n_{i}}y_{ij}^{2}- \displaystyle \sum_{i=1}^{I} \displaystyle \frac {y_{i.}^{2}} {n_{i}} \\ \end{array} \hspace {2cm} [1.42]   \)

que se obtienen de forma inmediata de la definición de cada uno de los términos.

El contraste básico del análisis de la varianza utiliza la descomposición, ([1.28]), ecuación básica del análisis de la varianza, cuyos términos se pueden disponer en forma tabular de la siguiente manera

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios &   \\ \hline  Entre \hspace{.2cm} grupos  &   \displaystyle \sum_{i=1}^{I}n_{i}(\overline{y}_{i.}- \overline{y}_{..})^{2}=SCTr  &  I-1 &   \widehat {S}_{Tr}^{2} &      \widehat {S}_{Tr}^{2}/   \widehat {S}_{R}^{2} \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &   \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}(y_{ij}- \overline{y}_{i.})^{2}=SCR  &  N-I  &  \widehat{S}_{R}^{2} &  \\ \hline
TOTAL & \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}(y_{ij}- \overline{y}_{..})^{2}=SCT   & N-1  &  \widehat {S}_{T}^{2} & \\ \hline  \end{array}  \)

Tabla 1-3. Tabla ANOVA para el modelo de efectos fijos unifactorial

Alternativamente, utilizando las expresiones abreviadas de \( SCT \), \( SCTr \) y \( SCR \), dadas en ([1.42]), la Tabla ANOVA se expresa de la siguiente forma

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios & \\ \hline  Entre \hspace{.2cm} grupos  &     \displaystyle \sum_{i=1}^{I}\displaystyle \frac {y_{i.}^{2}}{n_{i}}- \displaystyle \frac {y_{..}^{2}}{N}=SCTr  &  I-1 &   \widehat {S}_{Tr}^{2} &      \widehat {S}_{Tr}^{2}/   \widehat {S}_{R}^{2} \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n_{i}}y_{ij}^{2}- \displaystyle \sum_{i=1}^{I} \displaystyle \frac {y_{i.}^{2}}{n_{i}}=SCR  &  N-I  &  \widehat{S}_{R}^{2} & \\ \hline TOTAL &  \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}^{2}- \displaystyle \frac{y_{..}^{2}}{N}=SCT    & N-1  &  \widehat {S}_{T}^{2} & \\ \hline  \end{array}  \)

Tabla 1-4. Forma práctica de la tabla ANOVA para el modelo de efectos fijos unifactorial

Coeficiente de determinación

La adecuación de los datos al modelo se podría comprobar mediante la varianza residual, pero esta cantidad tiene el inconveniente de depender de la escala de medida de los datos. Por ello, una medida más apropiada es el coeficiente de determinación, denotado por \(  R^{2} \)  y definido como el cociente entre la variabilidad explicada y la variabilidad total

\(  R^{2} =\displaystyle \frac {SCTr} {SCT} \)

Esta cantidad es adimensional y se interpreta como la proporción de la variabilidad total presente en los datos que es explicada por el modelo de análisis de la varianza.

Para ilustrar el análisis de la varianza unifactorial de efectos fijos (caso no-equilibrado), vamos a considerar el Ejemplo 1-1, en el que se desea comprobar si se aprecian diferencias significativas en el rendimiento de la semilla de algodón con los distintos fertilizantes.

Para ello, construimos la Tabla 1-5, organizando los datos de la siguiente manera

\(  \begin{array}{| c| cccccc|c|c|c|c|c|} \hline  Fertilizantes & & & Observaciones &&& & n_{i}  &  y_{i.}   & \overline{y}_{i.}  & \sum y_{ij}^{2} &     y_{i.}^{2}/n_{i} \\ \hline     1 &   51 &   49  &  50  &  49  &  51  &  50 & 6  &  300  &  50  &  15004 &   15000  \\  2  &  56 &   60  &  56   & 56  &  57 & &  5  &  285  &  57  &  16257  &  16245  \\ 3  &  48 &   50   & 53 &   44  &  45 & &  5  &  240  &  48  &  11574 &   11520 \\ 4 &  47  &  48  &  49  &  44 & & & 4  &  188 &   47  &  8850   & 8836 \\ 5 &  43 &   43  &  46  &  47  &  45  &  46 & 6  &  270   & 45   & 12164  &  12150 \\ \hline  & & & & & & &   26 &    y_{..}=1283   & &      63849  &  63751 \\ \hline  \end{array}  \)

Tabla 1-5. Datos del rendimiento del algodón

que facilita los cálculos del análisis de la varianza.

Las sumas de cuadrados necesarias para el análisis de la varianza se calculan como sigue:

\(   \begin{array} {ll} \\  SCT =  &      \displaystyle \sum_{i=1}^{5} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}^{2}- \displaystyle \frac {y_{..}^{2}} {N} = 63849- \displaystyle \frac {1283^{2}} {26}=537.88 \\ \\ SCTr  =  &     \displaystyle \sum_{i=1}^{5} \displaystyle \frac {y_{i.}^{2}} {n_{i}}- \displaystyle \frac {y_{..}^{2}} {N}=  63751- \displaystyle \frac {1283^{2}}{26}=439.88  \\ \\ SCR =   &  SCT – SCTr = 98 \\ \end{array}    \)

El análisis de la varianza resultante se presenta en la siguiente tabla.

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios &   \\ \hline  Entre \hspace{.2cm} grupos  &   439.88 &   4   & 109.97  &  23.55 \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  98.00   & 21   &  4.67 & \\ \hline TOTAL &  537.88 &  25 & & \\ \hline  \end{array}  \)

Tabla 1-6. Análisis de la varianza para los datos del Ejemplo 1-1

Obsérvese en esta tabla como el cuadrado medio entre tratamientos (109.97) es mucho mayor que el cuadrado medio dentro de los tratamientos (4.67), entonces debe ser muy improbable que los efectos de los tratamientos sean iguales. Efectivamente si realizamos el contraste al 5% y comparamos el cociente \( F_{exp}=109.97/4.67=23.55 \) con la F teórica \( (F_{0.05;4,21}=2.84) \), se concluye que se rechaza \( H_{0} \); en otras palabras, concluimos que, a un nivel de significación del 5 %, el rendimiento de la semilla de algodón difiere significativamente dependiendo del tipo de fertilizante utilizado. Igualmente ocurriría al nivel de significación del 1%, \( (F_{0.01;4,21}=4.36) \) o incluso a un nivel de significación mucho más pequeño. Más adelante, veremos otra forma de decidir en un contraste de hipótesis por medio del nivel mínimo de significación.

Comprobamos mediante el coeficiente de determinación, cuyo valor es

\(  R^{2}= \displaystyle \frac {SCTr} {SCT}= \displaystyle \frac {439.88} {537.88}=0.8178 \)

que el factor “tipo de fertilizante” explica el 81.78 % de la variabilidad en el rendimiento de la semilla de algodón.

En el caso de que se rechace la hipótesis nula, resulta de interés estudiar que tratamientos son distintos entre sí. Este tema será tratado con detalle en el Capítulo 2. Por otro lado, se puede ampliar el análisis estadístico realizado incluyendo intervalos de confianza para los parámetros del modelo, en especial \( μ_{i} \)  y \(  σ^{2} \).

Intervalos de confianza para \( μ_{i} \) y \( σ^{2} \)

a) En primer lugar construyamos un intervalo de confianza para estimar la media del i-ésimo tratamiento,

\(  μ_{i}=μ+τ_{i} \)

Como hemos mencionado el estimador puntual de \(  μ_{i}\) es \( \widehat{μ}_{i}=μ+ \widehat {τ}_{i}= \widehat {y}_{i.}\). Al ser las \( y_{ij} \) variables aleatorias independientes con distribución Normal de media \( μ_{i} \) y varianza \( σ^{2} \), entonces las \( \overline{y}_{i.}\) son también variables aleatorias independientes con distribución Normal de media \( μ_{i}\) y varianza \( σ^{2}/n_{i}\). Por lo tanto, si \( σ^{2} \) es conocida, podría usarse la distribución normal para construir el intervalo de confianza para \( μ_{i} \). Como generalmente \( σ^{2} \) es desconocida, se debe utilizar la varianza residual, \(  \widehat{S}_{R}^{2} \), como estimador de \( σ^{2} \) y el intervalo de confianza, en este caso, se construye a partir de la distribución t de Student. Así, un intervalo de confianza al nivel de confianza \( (1-α) \) para la media \( μ_{i} \) del i-ésimo tratamiento, es:

\( \left [ \overline {y}_{i.} \pm t_{α/2;N-I} \sqrt { \widehat {S}_{R}^{2}/n_{i}}  \right ]  \hspace{2cm} [1.43] \)

En efecto, utilizando el resultado \( N \widehat {σ}^{2}/σ^{2} \rightarrow  χ_{N-I}^{2} \) que obtuvimos en la subsección “Estimación de los parámetros del modelo” y como \( \widehat {σ}^{2} \) y \(  \widehat {S}_{R}^{2} \) están relacionadas de la siguiente forma:

\( \widehat {S}_{R}^{2}= \displaystyle \frac {N} {N-I} \widehat {σ}^{2} \)

se deduce que:

\( \displaystyle \frac {(N-I) \widehat {S}_{R}^{2}} {σ^{2}} \rightarrow χ_{N-I}^{2} \hspace {2cm} [1.44]  \)

y por tanto

\( \displaystyle \frac {\displaystyle \frac {\overline {y}_{i.}-μ_{i}}{σ/ \sqrt n_{i}}} {  \displaystyle \sqrt { \displaystyle \frac { (N-I) \widehat {S}_{R}^{2}} { σ^{2}(N-I)}}}= \displaystyle \frac { \overline {y}_{i.}-μ_{i}} { \displaystyle \sqrt { \widehat {S}_{R}^{2}/n_{i}}} \rightarrow t_{N-I} \)

b) A continuación, construyamos un intervalo de confianza para la varianza poblacional \( σ^{2} \), para ello utilizamos el resultado ([1.44]), obteniendo el siguiente intervalo para \( σ^{2} \)

\( \left ( \displaystyle \frac {(N-I) \widehat {S}_{R}^{2}} {χ_{α/2;N-I}^{2}} ,  \displaystyle \frac {(N-I) \widehat {S}_{R}^{2}} {χ_{1-α/2;N-I}^{2}} \right ) \hspace {2cm} [1.45]  \)

donde  \( χ_{1-α/2}^{2} \) y \( χ_{α/2}^{2} \) son, respectivamente, los puntos críticos inferior y superior de una variable \( χ^{2} \) con \( N-I \) grados de libertad y con una probabilidad de \( α/2 \) en cada cola de la distribución.

Con los datos del Ejemplo 1-1 vamos a obtener intervalos de confianza para la media de uno de los niveles y para la varianza poblacional.

a) Usando la ecuación ([1.43]), un intervalo de confianza al 95 % para la media, por ejemplo, del tratamiento 5 es

 \( [45 \pm t_{0.025;21} \sqrt {4.67/6}]=(45 \pm 1.835) \)

Por tanto, el intervalo deseado para \( μ_5 \) es \( (43.164 \hspace{.2cm}, \hspace{.2cm} 46.835) \)

b) Usando la ecuación ([1.45]), un intervalo de confianza al 95 % para la varianza poblacional es

 \(  \left ( \displaystyle \frac {21(4.67)} {χ_{0.025;21}^{2}}\hspace {.2cm}  , \hspace {.2cm}  \displaystyle \frac {21(4.67)} {χ_{0.975;21}^{2}} \right )= (2.764 \hspace {.2cm} , \hspace {.2cm}  9.539)  \)

Modelo equilibrado

Un caso muy importante del modelo unifactorial es el modelo equilibrado o balanceado, en el que para cada nivel del factor se toma el mismo número de observaciones. Este modelo presenta las siguientes ventajas sobre el modelo no-equilibrado:

1) Se simplifica el proceso de cálculo y además permite hacer la transición sencilla al modelo en bloques completos al azar, que estudiaremos en el Capítulo 4

2) La restricción  \(  \sum_{i}n_{i}τ_{i}=0  \)  del modelo no-equilibrado se simplifica a  \( \sum_{i}τ_{i}=0  \), que resulta mucho más natural

3) Los contrastes resultantes son más robustos, es decir, más insensibles al incumplimiento de las hipótesis de normalidad y homocedasticidad

4) La potencia del contrate de comparación de medias es máxima

5) Las comparaciones múltiples, que veremos en el Capítulo 2, se abordan de manera exacta con cualquiera de los métodos posibles.

En este modelo, la Tabla ANOVA 1-4 del modelo no-equilibrado se simplifica, obteniéndose la Tabla 1-7, donde  \( n  \) es el tamaño común de cada muestra y, por tanto,  \( In  \) es el número total de elementos  \( N  \).

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios & \\ \hline  Entre \hspace{.2cm} grupos  &     \displaystyle \sum_{i=1}^{I}\displaystyle \frac {y_{i.}^{2}}{n}- \displaystyle \frac {y_{..}^{2}}{N}=SCTr  &  I-1 &   \widehat {S}_{Tr}^{2} &      \widehat {S}_{Tr}^{2}/   \widehat {S}_{R}^{2} \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  \displaystyle \sum_{i=1}^{I}\displaystyle \sum_{j=1}^{n}y_{ij}^{2}- \displaystyle \sum_{i=1}^{I} \displaystyle \frac {y_{i.}^{2}}{n}=SCR  &  N-I  &  \widehat{S}_{R}^{2} & \\ \hline TOTAL &  \displaystyle \sum_{i=1}^{I} \displaystyle \sum_{j=1}^{n}y_{ij}^{2}- \displaystyle \frac{y_{..}^{2}}{N}=SCT    & N-1  &  \widehat {S}_{T}^{2} & \\ \hline  \end{array}  \)

Tabla 1-7. Forma práctica de la tabla ANOVA para el modelo equilibrado

Para ilustrar el análisis de la varianza unifactorial de efectos fijos en el caso equilibrado, vamos a considerar la segunda situación con unos datos concretos:

Ejemplo 1.2

Una profesora de estadística imparte clase en 4 grupos de alumnos, en los que explica la misma materia pero siguiendo distintos métodos de enseñanza. Desea averiguar si el método de enseñanza utilizado influye en las calificaciones de los alumnos. Las calificaciones medias obtenidas por los alumnos correspondientes a los 4 grupos fueron

\(  \begin{array}{| c| c|} \hline Grupos  &  Calificaciones  \\ \hline
1  &  8.2  \hspace{.4cm}  7.3  \hspace{.4cm}   7.2   \hspace{.4cm}  6.1  \hspace{.4cm}   3.2   \hspace{.4cm}   8.5   \hspace{.4cm}  2.5   \hspace{.4cm}  5.5   \hspace{.4cm}  5.3   \hspace{.4cm}  4.4   \hspace{.4cm}  3.8   \hspace{.4cm}  10 \\   2 &   6.4 \hspace{.4cm}    3.8   \hspace{.4cm}  3.5  \hspace{.4cm}  9.1   \hspace{.4cm}  8.2  \hspace{.4cm}  7.5  \hspace{.4cm}  3.6 \hspace{.4cm}    2.5  \hspace{.4cm}  6.5  \hspace{.4cm}  5.3 \hspace{.4cm}    5.2   \hspace{.4cm}  5.1 \\ 3  &  9.2  \hspace{.4cm}  10  \hspace{.4cm}  8.1  \hspace{.4cm}  5.3  \hspace{.4cm}  2.5  \hspace{.4cm}  2.6  \hspace{.4cm}    6.1  \hspace{.4cm}  9.5  \hspace{.4cm}  10 \hspace{.4cm}    4.2  \hspace{.4cm}  2.1  \hspace{.4cm}  0.0 \\  4  &    8.4  \hspace{.4cm}  7.1  \hspace{.4cm}  6.3  \hspace{.4cm}  4.1  \hspace{.4cm}  3.4  \hspace{.4cm}  5.2  \hspace{.4cm}  6.1 \hspace{.4cm}    4.3  \hspace{.4cm}  3.3  \hspace{.4cm}    3.5  \hspace{.4cm}  9.2  \hspace{.4cm}  8.2 \\ \hline  \end{array}  \)

Tabla 1-8. Datos para el Ejemplo 1-2

Construimos la Tabla 1-9, organizando los datos de la siguiente manera

\(  \begin{array}{| c| c|c|c|c|c|c|} \hline Grupos  &  Calificaciones  &    n &   y_{i.}  &  \overline {y}_{i.}   & \sum_{j}y_{ij}^{2} &    y_{i.}^{2} \\ \hline
1 &    8.2  \cdots 10 &   12  &  72.0  &  6.00  &  490.46  &  5184.00 \\
2  &  6.4  \cdots 5.1 &   12 &   66.7   & 5.55  &  416.55  &   4448.88 \\
3  &  9.2  \cdots 0.0 &  12  &  69.6  &  5.80  &  540.86  &  4844.16  \\
4  &  8.4 \cdots 8.2  &  12 &   69.1 &   5.75 &   446.79 &   4774.81  \\ \hline
& & 48  &  y_{..} = 277.4    &  &  1894.66  &  19251.86 \\ \hline \end{array}  \)

Tabla 1-9. Datos del Ejemplo 1-2

Las sumas de cuadrados necesarias para el análisis de la varianza se calculan como sigue:

\(   \begin{array} {ll} \\  SCT =  &      \displaystyle \sum_{i=1}^{4} \displaystyle \sum_{j=1}^{12}y_{ij}^{2}- \displaystyle \frac {y_{..}^{2}} {N} = 1894.66- \displaystyle \frac {(277.4)^{2}} {48}=291.51 \\ \\ SCTr  =  &     \displaystyle \sum_{i=1}^{4} \displaystyle \frac {y_{i.}^{2}} {n}- \displaystyle \frac {y_{..}^{2}} {N}=  \displaystyle \frac {19251.86}{12} – \displaystyle \frac {(277.4)^{2}}{48}=1.18  \\ \\ SCR =   &  SCT – SCTr = 290.33 \\ \end{array}    \)

El análisis de la varianza se presenta en la Tabla 1-10.

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios & \\ \hline  Entre \hspace{.2cm} grupos  &    1.18  &  3 &   0.39 &    0.060  \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  290.33  &  44  &  6.59 \\ \hline TOTAL &  291.51    &  47  &   & \\ \hline  \end{array}  \)

Tabla 1-10. Análisis de la varianza para los datos del Ejemplo 1-2

Al nivel de significación del 5% se debe aceptar la hipótesis \( H_0 \) y concluir que las medias de los tratamientos no difieren significativamente ya que \( F_{exp}=0.39/6.59=0.060 \) es menor que la F teórica \( (F_{0.05;3,44}=2.81) \); en otras palabras, decidimos que, a un nivel de significación del 5%, las calificaciones obtenidas por los alumnos en los 4 grupos no difieren significativamente

Nota:  Al ser \( F_{exp} \) menor que la unidad no es necesario considerar la  \( F_{teorica}\) ya que siempre se acepta la hipótesis nula para cualquier \( α \).

Comportamiento de los datos frente a un cambio de origen y de escala

En esta sección vamos a comprobar que el análisis de la varianza se obtiene de forma equivalente cuando se transforman los datos mediante un cambio de origen y un cambio de escala. Para ello, utilizaremos los datos del Ejemplo 1-1.

Cambio de origen

Supongamos que se efectúa un cambio de origen en las observaciones, como valor conveniente del origen se debe tomar un valor próximo a la media de los datos; en este ejemplo podemos tomar 49. Los resultados se presentan en la Tabla 1-11.

\(  \begin{array}{| c| l|c|c|c|c|c|} \hline Fertiliz.  &    Valores  \hspace{.2cm}transformados  &    n_{i} &   y_{i.}  &  \overline {y}_{i.}   & \sum_{j}y_{ij}^{2} &    y_{i.}^{2}/n_i \\ \hline   1  &  2 \hspace{.9cm}   0  \hspace{.9cm}  1  \hspace{.9cm}  0  \hspace{.9cm}  2 \hspace{.9cm}   1 &   6 &   6  &  1 &    10  &  6 \\   2  &  7 \hspace{.8cm} 11 \hspace{.8cm}   7  \hspace{.9cm}  7  \hspace{.9cm}  8    &    5  &  40 &   8  &  332 &   320 \\   3  &  -1  \hspace{.6cm}  1  \hspace{.6cm}  4  \hspace{.6cm}  -5  \hspace{.4cm}  -4   \hspace{.6cm}     5   & -5  &  -1  &  59 &   5 \\  4  &  -2  \hspace{.4cm}  -1 \hspace{.6cm}   0  \hspace{.4cm}  -5     &       4  &  -8  &  -2  &  30  &  16 \\
5 &   -6  \hspace{.2cm}  -6  \hspace{.2cm}  -3  \hspace{.2cm}  -2  \hspace{.2cm}  -4  \hspace{.2cm}  -3 &  6 &   -24   & 4 &   110 &   96 \\ \hline   & & 26  &  y_{..}=9   & &      541  &  443 \\ \hline  \end{array}  \)

Tabla 1-11. Cambio de origen en los datos del Ejemplo 1-1

Las sumas de cuadrados son:

\(   \begin{array} {ll} \\  SCT =  &      \displaystyle \sum_{i=1}^{5} \displaystyle \sum_{j=1}^{n_{i}}y_{ij}^{2}- \displaystyle \frac {y_{..}^{2}} {N} = 541- \displaystyle \frac {9^{2}} {26}=537.88 \\ \\ SCTr  =  &     \displaystyle \sum_{i=1}^{5} \displaystyle \frac {y_{i.}^{2}} {n_{i}}- \displaystyle \frac {y_{..}^{2}} {N}= 443 -\displaystyle \frac {9^{2}}{26}=439.88  \\ \\ SCR =   &  SCT – SCTr = 98 \\ \end{array}    \)

Observamos que al hacer un cambio de origen en los datos las sumas de cuadrados permanecen invariantes.

Cambio de escala

Veamos ahora el comportamiento de los datos frente a un cambio de escala. Para ello, supongamos que dividimos cada observación, por simplicidad, por 10. Así, se obtiene la siguiente tabla

\(  \begin{array}{| c| l|c|c|c|c|c|} \hline Fertiliz.  &    Valores  \hspace{.2cm} transformados  &    n_{i} &   y_{i.}  &  \overline {y}_{i.}   & \sum_{j}y_{ij}^{2} &    y_{i.}^{2}/n_i \\ \hline  1 &   5.1  \hspace{.3cm}  4.9  \hspace{.3cm}  5.0  \hspace{.3cm}  4.9 \hspace{.3cm}   5.1  \hspace{.3cm}  5.0 &   6  &  30.0   & 5.0  &  150.04  &  150.00 \\ 2  &   5.6  \hspace{.3cm}  6.0  \hspace{.3cm}  5.6 \hspace{.3cm}   5.6  \hspace{.3cm}  5.7       & 5  &  28.5  &  5.7 &   162.57   & 162.45 \\ 3 &   4.8  \hspace{.3cm}  5.0 \hspace{.3cm}   5.3 \hspace{.3cm}   4.4   \hspace{.3cm} 4.5     &   5   & 24.0  &  4.8  &  115.74  &  115.20 \\ 4  &  4.7  \hspace{.3cm}  4.8  \hspace{.3cm}  4.9  \hspace{.3cm}  4.4          &  4  &  18.8  &  4.7   & 88.50  &  88.36  \\ 5  &  4.3  \hspace{.3cm} 4.3  \hspace{.3cm}  4.6   \hspace{.3cm} 4.7  \hspace{.3cm}  4.5  \hspace{.3cm}  4.6  &  6 &  27.0  &  4.5  &  121.64  &  121.50 \\  \hline & & 26 &   y_{..}=128.3   &  &   638.49  &  637.51 \\ \hline \end{array}    \)

Tabla 1-12. Cambio de escala en los datos del Ejemplo 1-1

La correspondiente Tabla ANOVA es

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios & \\ \hline  Entre \hspace{.2cm} grupos  &   4.3988 &  4 &   1.0997 &   23.55 \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  0.9800 &  21  &  0.0467 \\ \hline TOTAL &   5.3788   &  25  &   & \\ \hline  \end{array}  \)

Tabla 1-13.

Comprobamos que la relación de las sumas de cuadrados en los datos del ejemplo original, (SCT=537.88, SCTr=439.88 y SCR=98), con los valores transformados es la unidad de escala al cuadrado. Además el valor del estadístico de contraste es el mismo.

Todo ésto, que hemos visto para casos particulares se puede demostrar que es cierto para un cambio de origen y escala arbitrario. La finalidad práctica de estas transformaciones es simplificar las operaciones necesarias para obtener la tabla ANOVA.

Modelo de efectos aleatorios

En el modelo de efectos aleatorios, los niveles del factor son una muestra aleatoria de una población de niveles. Este modelo surge ante la necesidad de estudiar un factor que presenta un número elevado de posibles niveles, que en algunas ocasiones puede ser infinito. En este modelo las conclusiones obtenidas se generalizan a toda la población de niveles del factor, ya que los niveles empleados en el experimento fueron seleccionados al azar.

Formalmente la expresión del modelo es la misma que en el modelo de efectos fijos dado por la ecuación ([1.1]), es decir:

\( y_{ij}=μ+τ_{i}+u_{ij} \)

con la diferencia de que ahora \( τ_{i} \) son variables aleatorias. Además este modelo requiere que las variables \( τ_{i} \) y \( u_{ij} \) sean independientes y sigan distribuciones normales con media 0 y varianza constante \( σ_{τ}^{2} \) y \( σ^{2} \), respectivamente. Así, por la independencia entre las variables \( τ_{i} \) y \( u_{ij} \), la varianza de cualquier observación de la muestra, es decir, la varianza total, denotada por \( σ_{T}^{2} \), vale

\( σ_{T}^{2}=σ_{τ}^{2}+σ^{2} \)

La mecánica del Análisis de la Varianza es la misma que en el modelo de efectos fijos, excepto en el cálculo de las esperanzas de los cuadrados medios, ya que mientras en el modelo de efectos fijos, los efectos \( τ_{i} \) eran constantes que cumplían la condición \( \sum_{i=1}^{I}n_{i}τ_{i}= 0 \), ahora son variables aleatorias \( N(0, σ_{τ}) \), no sometidas a ninguna restricción. En este modelo, carece de sentido probar la hipótesis que se refiere a los efectos de tratamiento individuales y, en su lugar, debe realizarse el contraste:

\(   \begin{array} {ll} \\  H_0 =  &  σ_{τ}^{2}=0 \\ \\ H_1  =  &     σ_{τ}^{2} > 0 \\ \end{array}    \)

Si se acepta \( H_0, σ_{τ}^{2}=0 \), significa que todos los tratamientos son idénticos; en cambio, si se acepta \( H_1, σ_{τ}^{2} >0 \), significa que existe variabilidad entre los tratamientos.

Al igual que en el modelo de efectos fijos, se distingue entre el caso equilibrado y el caso no-equilibrado.

Nota: Al ser los efectos \( τ_{i} \) variables aleatorias independientes entonces la condición \( \sum_{i=1}^{I}n_{i}τ_{i}= 0 \), del modelo de efectos fijos, no puede imponerse ya que conduciría a dependencia entre los \( τ_{i} \).

Modelo de efectos aleatorios no-equilibrado

Como en el modelo de efectos fijos, la variabilidad total de los datos se puede expresar como la suma de la variabilidad entre los tratamientos y la variabilidad dentro de los mismos. A partir de estas variabilidades se definen las correspondientes varianzas muestrales.

Para establecer el procedimiento del contraste de hipótesis, para el modelo de efectos aleatorios, calculemos en primer lugar los valores esperados de la varianza entre tratamientos y de la varianza residual.

Como en el modelo de efectos fijos, consideremos las expresiones de \( y_{i.}, \overline{y}_{i.}, y_{..} \hspace {.2cm} e \hspace{.2cm} \overline {y}_{..} \), en función de los parámetros del modelo, con objeto de poder hallar las esperanzas de las varianzas muestrales.

\(   \begin{array} {ll} \\ y_{i.}=n_{i}μ+n_{i}τ_{i}+u_{i.} \hspace{.4cm}  ;  \hspace{.4cm}  &  \overline {y}_{i.}=μ+τ_{i}+ \overline {u}_{i.} \\ \\  y_{..}=Nμ+\displaystyle \sum_{i=1}^{I}n_{i}τ_{i}+u_{..}  \hspace{.4cm}  ;  \hspace{.4cm}  &    \overline {y}_{..}=μ+\displaystyle  \frac {1} {N} \displaystyle \sum_{i=1}^{I}n_{i}τ_{i}+ \overline {u}_{..} \\   \end{array}  \)

\(  1^{o}) \)  La varianza entre tratamientos se puede expresar como

\(   \begin{array} {ll} \\  \widehat {S}_{Tr}^{2} =  &   \displaystyle \frac {1}{I-1} \left [ \displaystyle \sum_{i=1}^{I}n_{i}(\overline {y}_{i.}- \overline {y}_{..})^{2} \right ]= \\  & =   \displaystyle  \frac {1} {I-1} \displaystyle \sum_{i=1}^{I}n_{i} \left [ μ+τ_{i}+\overline {u}_{i.}-μ- \displaystyle  \frac {1} {N} \displaystyle \sum_{k=1}^{I}n_{k}τ_{k}- \overline {u}_{..} \right ]^{2} = \\  & =   \displaystyle \frac {1} {I-1} \displaystyle \sum_{i=1}^{I}n_{i} \left [ \left (τ_{i}- \displaystyle \frac {1}{N} \displaystyle \sum_{k=1}^{I}n_{k}τ_{k} \right )+(\overline {u}_{i.}- \overline {u}_{..}) \right ]^{2} = \\  & =    \displaystyle \frac {1} {I-1} \left [ \displaystyle \sum_{i=1}^{I}n_{i} \left (τ_{i}- \displaystyle \frac {1} {N} \displaystyle \sum_{k=1}^{I}n_{k}τ_{k} \right )^{2}+ \displaystyle \sum_{i=1}^{I}n_{i}(\overline {u}_{i.}- \overline {u}_{..})^{2} +  \right. \\  &  + \left. 2 \displaystyle \sum_{i=1}^{I}n_{i} \left (τ_{i}- \displaystyle \frac {1} {N} \displaystyle \sum_{k=1}^{I}n_{k}τ_{k} \right )(\overline {u}_{i.}- \overline {u}_{..}) \right ] \\ \end{array}    \)

y su esperanza matemática será la suma de las esperanzas matemáticas de cada sumando, es decir

\(   \begin{array} {ll} \\  E [ \widehat {S}_{Tr}^{2}] =  & \displaystyle \frac {1} {I-1} \left \{ E \left [ \displaystyle \sum_{i=1}^{I}n_{i} \left ( τ_{i}- \displaystyle \frac {1} {N} \displaystyle \sum_{k=1}^{I}n_{k}τ_{k} \right )^{2} \right ]+E \left [ \displaystyle \sum_{i=1}^{I}n_{i}( \overline {u}_{i.}- \overline {u}_{..})^{2} \right ]+ \right.  \\ & + \left. 2E \left [ \displaystyle \sum_{i=1}^{I}n_{i} \left (τ_{i}- \displaystyle \frac {1} {N} \displaystyle \sum_{k=1}^{I}n_{k}τ_{k}\right )(\overline {u}_{i.}- \overline {u} _{..}  ) \right ] \right \} \\ \end{array}  \hspace{2cm} [1.47]  \)

Ahora bien, puesto que:

a) Las variables aleatorias \(  τ_{i}\)  son independientes con media 0, entonces

\(   E \left ( \displaystyle \sum_{i≠k}n_{i}n_{k}τ_{i}τ_{k} \right )=0 \)

y además, como \(  E(τ_{i}^{2})=σ_{τ}^{2} \), también se verifica que

\(  E \left [τ_{i}  \displaystyle  \sum_{k=1}^{I}n_{k}τ_{k} \right ]=n_{i}σ_{τ}^{2} \)

Por lo tanto,

\(   \begin{array} {ll} \\  E \left [ \displaystyle \sum_{i=1}^{I}n_{i} \left (τ_{i}- \displaystyle \sum_{k=1}^{I} \displaystyle \frac {n_{k}τ_{k}} {N} \right)^{2} \right ] =  &    \displaystyle \sum_{i=1}^{I}n_{i}E \left (τ_{i}^{2}+ \left ( \displaystyle \sum_{k=1}^{I} \displaystyle \frac {n_{k}τ_{k}} {N} \right)^{2}- \right.  \\  & – \left. 2τ_{i} \displaystyle  \sum_{k=1}^{I} \displaystyle   \frac {n_{k}τ_{k}} {N} \right)  \\= & = \displaystyle  \sum_{i=1}^{I}n_{i}E \left (τ_{i}^{2}+ \displaystyle   \frac {1} {N^{2}} \displaystyle  \sum_{k=1}^{I}n_{k}^{2}τ_{k}^{2}+\right.  \\ & + \left. \displaystyle   \frac {1} {N^{2}} \displaystyle  \sum_{k≠r}^{I}n_{k}n_{r}τ_{k}τ_{r}- \displaystyle   \frac {2} {N}τ_{i} \displaystyle  \sum_{k=1}^{I}n_{k}τ_{k} \right ) = \\ & = \displaystyle  \sum_{i=1}^{I}n_{i} \left (σ_{τ}^{2}+ \displaystyle   \frac {1} {N^{2}} \displaystyle   \sum_{k=1}^{I}n_{k}^{2}σ_{τ}^{2}- \displaystyle   {2} {N}n_{i}σ_{τ}^{2} \right ) = \\ & = Nσ_{τ}^{2}- \displaystyle  \frac {1} {N} \displaystyle  \sum_{i=1}^{I}n_{i}^{2}σ_{τ}^{2} \\ \end{array}  \hspace{2cm} [1.48]  \)

b) \(  E[ \sum_{i,j}(\overline {u}_{i.}- \overline {u}_{..})^{2}]=Iσ^{2}-σ^{2}\), ya que

\(   \begin{array} {ll} \\ E \left [ \displaystyle \sum_{i=1}^{I}n_{i}(\overline {u}_{i.}- \overline {u}_{..})^{2} \right ] =   & \displaystyle \sum_{i=1}^{I}n_{i}E \left ( \displaystyle \frac {1} {n_{i}} \displaystyle \sum_{j=1}^{n_{i}}u_{ij}- \displaystyle \frac {1} {N} \displaystyle \sum_{k=1}^{I}\displaystyle \sum_{h=1}^{n_{k}}u_{kh}\right )^{2} = \\  & = \displaystyle \sum_{i}n_{i}E \left [ \displaystyle \frac {1} {n_{i}^{2}} \left ( \displaystyle \sum_{j}u_{ij} \right )^{2}+ \displaystyle \frac {1} {N^{2}} \left ( \displaystyle \sum_{k,h}u_{kh} \right )^{2} – \right. \\ & – \left. 2 \displaystyle \frac {1} {Nn_{i}} \displaystyle \sum_{j}u_{ij}\displaystyle \sum_{k,h}u_{kh} \right ] = \\  & = \displaystyle \sum_{i}n_{i} \left [ \displaystyle \frac {1} {n_{i}^{2}} \displaystyle \sum_{j}σ^{2}+ \displaystyle \frac {1} {N^{2}} \displaystyle \sum_{k,h}σ^{2}-2 \displaystyle \frac {1} {Nn_{i}} \displaystyle \sum_{j}σ^{2} \right]= \\ & = \displaystyle \sum_{i}n_{i} \left [ \displaystyle \frac {σ^{2}} {n_{i}}- \displaystyle {σ^{2}} {N} \right ]=Iσ^{2}-σ^{2}=σ^{2}(I-1) \\ \end{array}  \hspace{2cm} [1.49]  \)

c) Puesto que las variables aleatorias \( τ_{i}\)  y \( u_{ij}\)  son independientes entre sí y

\(  E(τ_{i})=E(u_{ij})=0 \)

entonces

\(  E \left [ \displaystyle \sum_{i}n_{i} \left (τ_{i}-\displaystyle \frac {1} {N} \displaystyle \sum_{k}n_{k}τ_{k} \right )( \overline {u}_{i.}- \overline {u}_{..}) \right ]=0 \hspace{2cm} [1.50] \)

Por lo tanto, sustituyendo las expresiones ([1.48]), ([1.49]) y ([1.50]) en ([1.47]), tenemos

\( E(\widehat {S}_{T_{r}}^{2})= \displaystyle \frac {1} {I-1} \left ( Nσ_{τ}^{2}- \displaystyle \frac {1} {N} \displaystyle \sum_{i}n_{i}^{2}σ_{τ}^{2}+Iσ^{2}-σ^{2} \right )= \displaystyle \frac {N^{2}- \sum_{i}n_{i}^{2}} {N(I-1)} σ_{τ}^{2}+σ^{2} \hspace{2cm} [1.51] \)

\(  2^{o}) \) La esperanza matemática de la varianza residual es la varianza poblacional, en efecto

\(   \begin{array} {ll} \\  E( \widehat {S}_{R}^{2}) = &    E \left [ \displaystyle \frac {1} {N-I} \left (  \displaystyle \sum_{i,j}(y_{ij}- \overline {y}_{i.})^{2} \right ) \right]= \displaystyle \frac {1} {N-I} \displaystyle \sum_{i,j}E \left [u_{ij}- \displaystyle \frac {1} {n_{i}} \displaystyle \sum_{j}u_{ij} \right ]^{2} = \\ & = \displaystyle \frac {1} {N-I} \displaystyle \sum_{i,j} E \left [u_{ij}^{2}+ \displaystyle \frac {1} {n_{i}^{2}} \left ( \displaystyle \sum_{j}u_{ij} \right )^{2}- \displaystyle \frac {2} {n_{i}}u_{ij} \displaystyle \sum_{j}u_{ij} \right ] = \\ & =  \displaystyle \frac {1} {N-I} \displaystyle \sum_{i,j} \left (σ^{2}+ \displaystyle \frac {σ^{2}}{n_{i}}- \displaystyle \frac {2} {n_{i}}σ^{2} \right )= \displaystyle \frac {1} {N-I} (Nσ^{2}-Iσ^{2})=σ^{2} \\ \end{array}    \)

por tanto, \( \widehat {S}_{R}^{2} \) es un estimador insesgado del parámetro \(  σ^{2} \).

De la ecuación ([1.51]) se deduce que si no existe variabilidad entre los tratamientos, es decir, \( σ_{τ}^{2}=0 \), entonces \(  \widehat {S}_{Tr}^{2} \) es también un estimador insesgado de \( σ^{2} \).

De modo similar que en el modelo de efectos fijos se puede demostrar, bajo la hipótesis nula correspondiente a este modelo, que \( SCTr/σ^{2} \) y \( SCR/σ^{2} \) siguen distribuciones \( χ^{2} \) independientes con \( I-1 \) y \( N-I \) grados de libertad, por tanto el cociente

\(  F=\displaystyle \frac {  \displaystyle \frac  {SCTr/σ^{2}}{I-1}} { \displaystyle \frac {SCR/σ^{2}}{N-I}}= \displaystyle \frac {\widehat {S}_{Tr}^{2}} {\widehat {S}_{R}^{2}} \hspace{2cm} [1.52] \)

sigue una distribución \( F \) de Snedecor con \( I-1 \) y \( N-I \) grados de libertad y es el estadístico de contraste utilizado para probar la hipótesis de interés en el modelo de efectos aleatorios.

Bajo la hipótesis alternativa, es decir \(  σ_{τ}^{2}≠0 \), el valor esperado del numerador del estadístico de contraste es mayor que \( σ^{2} \) y por tanto rechazaremos la hipótesis nula para valores significativamente grandes de \( F \). En otras palabras, en el modelo de efectos aleatorios para contrastar la hipótesis \( H_{0}: σ_{τ}^{2}=0 \) frente a \( H_1: σ_{τ}^{2}>0 \), se actúa de la siguiente forma

Si \( F_{exp}> F_{α;I-1,N-I}, \hspace {2cm} \)    se rechaza \( \hspace {2cm} H_0 \)

Si \(F_{exp}≤F_{α;I-1,N-I}, \hspace {2cm} \)    se acepta \( \hspace {2cm} H_0 \)

La tabla del análisis de la varianza para el modelo de efectos aleatorios es idéntica a la del modelo de efectos fijos, salvo con la diferencia de que las conclusiones obtenidas se generalizan a toda la población de niveles del factor.

Además de efectuar el contraste de hipótesis, en el modelo de efectos aleatorios interesa estimar los valores \( σ_{τ}^{2} \). El procedimiento utilizado para ello se denomina “método de componentes de la varianza“. Dicho procedimiento consiste en igualar las esperanzas de las varianzas entre tratamientos y residual con sus correspondientes valores muestrales y resolver el sistema resultante:

\(  \left.  \begin{array} {ll} \\  \widehat {S}_{Tr}^{2}=  &  \displaystyle \frac {N^{2}- \displaystyle \sum_{i}n_{i}^{2}} {N(I-1)}σ_{τ}^{2}+σ{2} \\   \widehat {S}_{R}^{2}=  &  σ^{2}  \\ \end{array}   \right \} \)

Así, se obtienen los siguientes estimadores de las varianzas:

\(   \widehat {σ}^{2}= \widehat {S}_{R}^{2}  \hspace{6cm} [1.53] \)

\(  \widehat {σ}_{τ}^{2}= \displaystyle \frac {N(I-1) } {N^{2}- \displaystyle \sum_{i}n_{i}^{2}}[ \widehat {S}_{Tr}^{2}- \widehat {S}_{R}^{2}]  \hspace{2cm} [1.54] \)

Puede comprobarse que si la hipótesis alternativa es cierta, entonces  \(  \widehat {σ}_{τ}^{2} \) es un estimador insesgado de \(  σ_{τ}^{2} \).

En el caso de que la varianza residual sea mayor que la varianza entre tratamientos, el método de componentes de la varianza conduce a un estimación negativa de  \( σ_{τ}^{2} \). Evidentemente ésto carece de sentido, al tratarse de un parámetro no negativo. Cuando ésto ocurre se puede adoptar alguna de las siguientes alternativas:

  • Rechazar por inadecuado el modelo propuesto y replantear el problema
  • Reinterpretar la estimación de \(  σ_{τ}^{2} \) como evidencia de que su verdadero valor es cero; es decir, admitir que \( σ_{τ}^{2}=0 \). Esto puede ocasionar que las propiedades estadísticas de los restantes estimadores se vean perturbadas por esta decisión
  • Utilizar otro método de estimación que no conduzca a estimaciones negativas.

La selección de una opción concreta dependerá del experimento analizado o del criterio del investigador.

Para ilustrar el análisis de la varianza unifactorial de efectos aleatorios (caso no-equilibrado), vamos a resolver el Ejemplo 1-3.

Ejemplo 1.3

En una forja se utilizan varios hornos para calentar muestras de metal. Se supone que todos los hornos operan a la misma temperatura, aunque se sospecha que quizás ésto probablemente no sea cierto. Se seleccionan aleatoriamente tres hornos y se anotan sus temperaturas en sucesivos calentamientos, obteniéndose las observaciones que se muestran en la Tabla 1-14.

\(  \begin{array}{| c| cccccc|} \hline Horno  & && Temperatura &&&     \\ \hline
1  &  91.50 &  98.30  &  98.10  &  93.50  &  93.60 & \\
2  &  88.50  &   84.65 &   79.90  &  77.35 & & \\
3  &  90.10 &   84.80  &  88.25  &  73.00 &  71.85  & 78.65 \\ \hline \end{array}  \)

Tabla 1-14. Datos del Ejemplo 1-3

A partir de estos datos, se desea saber si existe variación significativa en la temperatura de los hornos al nivel de significación del 5%.

El análisis de la varianza resultante se presenta en la siguiente tabla.

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios & \\ \hline  Entre \hspace{.2cm} grupos  &  594.53 &  2 &   297.26 &   8.62 \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  413.81 &  12  &  34.48 \\ \hline TOTAL &   1008.34   &  14 &   & \\ \hline  \end{array}  \)

Tabla 1-15. Análisis de la varianza para los datos del Ejemplo 1-3

Como el valor del estadístico de contraste, 8.62, es mayor que \(  F_{0.05,2,12}=3.89 \), se rechaza la hipótesis de que todos los hornos operan a la misma temperatura.

A continuación, aplicando el método de las componentes de la varianza, obtenemos que la estimación de la varianza del error es

\(  \widehat {σ}^{2}= \widehat {S}_{R}^{2}=34.48 \)

y la estimación de la varianza de la temperatura es

\(  \widehat {σ} _{τ}^{2}=   \displaystyle \frac  {N(I-1) } {N^{2}- \displaystyle \sum_{i}n_{i}^{2}}[ \widehat {S}_{Tr}^{2}- \widehat{S}_{R}^{2}]= \displaystyle \frac {15 \times 2 } {15^{2}-77}(297.26-34.48 )=53.26 \)

de modo que la estimación de la varianza total es igual a

\(  \widehat {σ}_{T}^{2}= \widehat {σ}_{τ}^{2}+ \widehat {σ} ^{2}=53.26+34.48=87.74  \)

Por tanto, la varianza total (87.74) se descompone en una parte atribuible a la diferencia entre hornos (53.26) y otra procedente de la variabilidad existente dentro de ellos (34.48). Comprobamos que en dicha varianza tiene mayor peso la variación entre hornos, en porcentaje un 60.70 % frente a la variación dentro de los hornos, que representa el 39.30 % del total.

Modelo de efectos aleatorios equilibrado

En el modelo equilibrado o balanceado, el número de observaciones en cada nivel del factor es el mismo. Fijando dicho valor en n, el número total de observaciones es \(  N=I \times n \). En este caso se obtiene la siguiente expresión para la esperanza de la varianza entre tratamientos

\(  E( \widehat {S}_{Tr}^{2})=nσ_{τ}^{2}+σ^{2} \)

y los siguientes estimadores para las componentes de la varianza

\(  \widehat {σ}^{2}= \widehat  {S}_{R}^{2} \hspace{2cm} [1.55] \)

\(  \widehat {σ}_{τ}^{2}= \displaystyle \frac  { \widehat {S}_{Tr}^{2}- \widehat {S}_{R}^{2}} {n}  \hspace{2cm} [1.56] \)

Naturalmente, todo lo dicho sobre la estimación de \( σ_{τ}^{2} \) en el modelo no-equilibrado, es aplicable a este caso.

Ejemplo 1.4

Una fábrica de textiles dispone de un gran número de telares. En principio, se supone que cada uno de ellos debe producir la misma cantidad de tela por unidad de tiempo. Para investigar esta suposición se seleccionan al azar cinco telares, y se mide la cantidad de tela producida en cinco ocasiones diferentes. Se obtienen los datos de la tabla adjunta.

\(  \begin{array}{| c| ccccc|} \hline Telares & && Producción  &&  \\ \hline  1   &  14.0   &  14.1  &   14.2   &  14.0   & 14.1 \\
2 &   13.9 &  13.8   &  13.9  &  14.0   &  14.0 \\
3  &  14.1&   14.2  &  14.1   &  14.0 &  13.9 \\
4  &  13.6  &  13.8   & 14.0 &  13.9  &  13.7 \\
5  &  13.8  & 13.6  & 13.9   &  13.8   &  14.0 \\ \hline \end{array}  \)

Tabla 1-16. Datos de la producción de tela

¿Del estudio se concluye que todos los telares tienen el mismo rendimiento?

El análisis de la varianza resultante se presenta en la siguiente tabla.

\(  \begin{array}{| c| c|c|c|c|} \hline Fuentes \hspace{.2cm}  de  &   Suma   \hspace{.2cm}  de        &              Grados \hspace{.2cm} de  &   Cuadrados &  F_{exp} \\  variación      &  cuadrados    &    libertad  &  medios & \\ \hline  Entre \hspace{.2cm} grupos  &  0.3416 &  4 &  0.0854 &  5.77 \\ \hline Dentro \hspace{.2cm} de \hspace{.2cm} grupos  &  0.2960 &  20  &  0.0148 \\ \hline TOTAL &   0.6376   &  24 &   & \\ \hline  \end{array}  \)

Tabla 1-17. Análisis de la varianza para los datos del Ejemplo 1-4

Si realizamos el contraste al nivel de significación del 5% y comparamos el valor de la \( F_{exp}=5.77 \), con el valor de la F teórica \( (F_{0.05,4,20}=2.87) \), se concluye que se rechaza la hipótesis de que todos los telares tienen el mismo rendimiento.

A continuación, aplicamos el método de las componentes de la varianza y obtenemos

\(  \widehat {σ} ^{2}= \widehat {S}_{R}^{2}=0.0148 \)

\(  \widehat {σ}_{τ}^{2}=     \displaystyle \frac { \widehat{S}_{Tr}^{2}- \widehat {S}_{R}^{2}} {n}= \displaystyle \frac {0.0854-0.0148} {5}=0.014 \)

por tanto la estimación de la varianza total es igual a

\(  \widehat {σ}_{T}^{2}= \widehat {σ}_{τ}^{2}+ \widehat {σ}^{2}=0.014+0.0148=0.0289 \)

La varianza total (0.029) se descompone en una parte atribuible a la diferencia entre los telares (0.014) y otra procedente de la variabilidad existente dentro de ellos (0.015). Comprobamos como en la varianza total tiene más peso la variación dentro de los telares, 51.18%, que la variación entre los telares, que representa el 48.82% del total.

Tratamiento mediante ordenador

1. Realizamos el análisis de la varianza unifactorial con el paquete estadístico R

Ejemplo 1.1

Una compañía algodonera, interesada en maximizar el rendimiento de la semilla de algodón, desea comprobar si dicho rendimiento depende del tipo de fertilizante utilizado para tratar la planta. A su disposición tiene 5 tipos de fertilizantes. Para comparar su eficacia fumiga, con cada uno de los fertilizantes, un cierto número de parcelas de terreno de la misma calidad y de igual superficie. Al recoger la cosecha se mide el rendimiento de la semilla, obteniéndose las siguientes observaciones que se muestran en la Tabla 1

\(  \begin{array}{| c| cccccc|} \hline  Fertilizantes & & & Rendimiento &&& \\ \hline     1 &   51 &   49  &  50  &  49  &  51  &  50 \\  2  &  56 &   60  &  56   & 56  &  57 &  \\ 3  &  48 &   50   & 53 &   44  &  45 & \\ 4 &  47  &  48  &  49  &  44 & & \\
5 &  43 &   43  &  46  &  47  &  45  &  46 \\ \hline   \end{array}  \)

Tabla 1. Datos del Ejmplo 1.1

¿El rendimiento de la semilla de algodón depende del tipo de fertilizante utilizado?

Nota: La ruta hasta llegar al fichero varía en función del ordenador. Utilizar la orden setwd() para situarse en el directorio de trabajo

> setwd(“C:/Users/Usuario/Desktop/Datos”)
> datos <- read.table(“Ejemplo1-1.txt”, header = TRUE)
> datos
Fertilizantes Observaciones
1              1            51
2              1            49
3              1            50
4              1            49
5              1            51
6              1            50
7              2            56
8              2            60
9              2            56
10             2            56
11             2            57
12             3            48
13             3            50
14             3            53
15             3            44
16             3            45
17             4            47
18             4            48
19             4            49
20             4            44
21             5            43
22             5            43
23             5            46
24             5            47
25             5            45
26             5            46

Se puede realizar de dos formas:

  1. Transformar la variable referente a los niveles del factor fijo como factor

> datos$Fertilizantes<-factor(datos$Fertilizantes)
> datos$Fertilizantes
[1] 1 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 5 5 5 5 5 5
Levels: 1 2 3 4 5

Para calcular la tabla ANOVA primero hacemos uso de la función “aov” de la siguiente forma:

> mod <- aov(Observaciones ~ Fertilizantes, data = datos)

donde:

  • Observaciones  = nombre de la columna de las observaciones.
  • Fertilizantes = nombre de la columna en la que están representados los tratamientos.
  • datos= data.frame en el que están guardados los datos.

> mod
Call:
   aov(formula = Observaciones ~ Fertilizantes, data = datos)

Terms:
                Fertilizantes Residuals
Sum of Squares       439.8846   98.0000
Deg. of Freedom             4        21

Residual standard error: 2.160247
Estimated effects may be unbalanced

Se puede mostrar un resumen de los resultados con la función “summary” (verdadera tabla ANOVA)

>  summary(mod)
Df Sum Sq Mean Sq F value   Pr(>F)    
Fertilizantes  4  439.9  109.97   23.57 1.65e-07 ***
Residuals     21   98.0    4.67                     

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

2. En la expresión del comando “aov” indicar el factor

>  mod <- aov(Observaciones ~ factor (Fertilizantes), data = datos)

>  summary(mod)

Obsérvese como el cuadrado medio entre tratamientos (109.97) es mucho mayor que el cuadrado medio dentro de los tratamientos (4.67), entonces debe ser muy improbable que los efectos de los tratamientos sean iguales. Efectivamente, el valor del estadístico de contraste de igualdad de medias, F = 23.57 deja a su derecha un p-valor menor que 0.001, menor que el nivel de significación del 5%, por lo que se rechaza la Hipótesis nula de igualdad de medias. Es decir, que, a un nivel de significación del 5 %, el rendimiento de la semilla de algodón difiere significativamente dependiendo del tipo de fertilizante utilizado. Igualmente ocurriría al nivel de significación del 1%,  o incluso a un nivel de significación mucho más pequeño.

También se puede utilizar el comando “anova” y no es necesario el comando “summary”

>  mod1 <- anova(lm (Observaciones ~ factor (Fertilizantes), data = datos))
> mod1
Analysis of Variance Table

Response: Observaciones
                      Df Sum Sq Mean Sq F value    Pr(>F)    
factor(Fertilizantes)  4 439.88 109.971  23.565 1.649e-07 ***
Residuals             21  98.00   4.667                      

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Los datos pueden venir dados en diferentes formatos:

1. Caso en el que los datos se muestran de forma que se analiza el rendimiento con el tratamiento 1, el tratamiento 2, el tratamiento 3, tratamiento4 y tratamiento 5. Como se muestra a continuación

> setwd(“C:/Users/Usuario/Desktop/Datos”)
> datos <- read.table(“ejer2.txt”, header = TRUE)
> datos
  trat1 trat2 trat3 trat4 trat5
1    51    56    48    47    43
2    49    60    50    48    43
3    50    56    53    49    46
4    49    56    44    44    47
5    51    57    45    NA    45
6    50    NA    NA    NA    46

En primer lugar, apilaremos las columnas, para ello utilizamos el comando “stack” de la siguiente forma

> trats <- stack(datos)
> trats

   values   ind
1      51 trat1
2      49 trat1
3      50 trat1
4      49 trat1
5      51 trat1
6      50 trat1
7      56 trat2
8      60 trat2
9      56 trat2
10     56 trat2
11     57 trat2
12     NA trat2
13     48 trat3
14     50 trat3
15     53 trat3
16     44 trat3
17     45 trat3
18     NA trat3
19     47 trat4
20     48 trat4
21     49 trat4
22     44 trat4
23     NA trat4
24     NA trat4
25     43 trat5
26     43 trat5
27     46 trat5
28     47 trat5
29     45 trat5
30     46 trat5

Nos muestra dos columnas:

  • La primera columna: values nos muestra los valores de la variable respuesta. En este caso el Rendimiento
  • La segunda columna: ind nos muestra los diferentes tratamientos

Podemos realizar el Análisis de la varianza utilzando el comando anova

> anova(lm(values ~ ind, data = trats))
Analysis of Variance Table
Response: values
Df Sum Sq Mean Sq F value    Pr(>F)
ind        4 439.88 109.971  23.565 1.649e-07 ***
Residuals 21  98.00   4.667

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

2. Los datos vienen dados por cinco vectores

Tratamiento 1: 51, 49, 50, 49, 51, 50

Tratamiento 2: 56, 60, 56, 56, 57

Tratamiento 3: 48, 50, 53, 44, 45

Tratamiento 4: 47, 48, 49, 44

Tratamiento 5: 43, 43, 46, 47, 45, 46

Se crean cinco vectores, cada uno de ellos representando el rendimiento con un tratamiento.

> a = c( 51, 49, 50, 49, 51, 50)
> b = c(56, 60, 56, 56, 57, NA)
> c = c(48, 50, 53, 44, 45, NA)
> d = c(47, 48, 49, 44, NA, NA)
> e = c(43, 43, 46, 47, 45, 46)

> a
[1] 51 49 50 49 51 50
> b
[1] 56 60 56 56 57 NA
> c
[1] 48 50 53 44 45 NA
> d
[1] 47 48 49 44 NA NA
> e
[1] 43 43 46 47 45 46

Acontinuación creamos un data.frame para poder resolver el ANOVA

> datos = data.frame(a,b,c,d,e)
> datos
a  b  c  d  e
1 51 56 48 47 43
2 49 60 50 48 43
3 50 56 53 49 46
4 49 56 44 44 47
5 51 57 45 NA 45
6 50 NA NA NA 46

De esta forma hemos creado una nueva base de datos que hemos llamado  “datos“. Para resolver el ANOVA tenemos  primero que apilar las columnas con el comando “stack”

> datos1 = stack(datos)
> datos1
values ind
1      51   a
2      49   a
3      50   a
4      49   a
5      51   a
6      50   a
7      56   b
8      60   b
9      56   b
10     56   b
11     57   b
12     NA   b
13     48   c
14     50   c
15     53   c
16     44   c
17     45   c
18     NA   c
19     47   d
20     48   d
21     49   d
22     44   d
23     NA   d
24     NA   d
25     43   e
26     43   e
27     46   e
28     47   e
29     45   e
30     46   e

Resolvemos el ANOVA como en el caso anterior

> anova(lm(values ~ ind, data = datos1))
Analysis of Variance Table
Response: datos
Df Sum Sq Mean Sq F value    Pr(>F)
trat       4 439.88 109.971  23.565 1.649e-07 ***
Residuals 21  98.00   4.667

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

3. Los datos se muestren en un solo vector que tiene todos los datos del rendimiento tanto si ha sido tratado con el tratamiento a, b o c

> datos = c(a,b,c,d,e)
> datos
[1] 51 49 50 49 51 50 56 60 56 56 57 NA 48 50 53 44 45 NA 47 48 49 44 NA NA 43
[26] 43 46 47 45 46

Este vector esta formado por los 33 datos que podemos comprobarlo con el comando length

> length(datos)
[1] 30

Para realizar el ANOVA, ya tenemos los datos de la variable respuesta y a continuación tenemos que crear el factor tratamiento, para ello vamos a utilizar la función  generador de niveles, gl, y le decimos que nos genere 3 niveles que son los tres tratamientos, cada uno repetido 10 veves con un total de 33 datos y para identificar que nivel es cada uno, creamos las etiquetas A, B y C

> trat = gl(5,6,30, labels= c (“A”, “B”, “C”, “D”, “E”))
> trat
[1] A A A A A A B B B B B B C C C C C C D D D D D D E E E E E E
Levels: A B C D E

> anova(lm(datos~trat))
Analysis of Variance Table
Response: datos
Df Sum Sq Mean Sq F value    Pr(>F)
trat       4 439.88 109.971  23.565 1.649e-07 ***
Residuals 21  98.00   4.667

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

2. Realizamos el análisis de la varianza unifactorial con la libreria BrailleR de R

Recordar que cada vez que iniciemos R hay que conectar la biblioteca a nuestro espacio de trabajo mediante la sentencia

> library(“BrailleR”)

The BrailleR.View option has been set to TRUE.
Consult the help page for GoSighted() to see how settings can be altered.
You may wish to use the GetGoing() function as a quick way of getting started.
Attaching package: ‘BrailleR’
The following objects are masked from ‘package:graphics’:
    boxplot, hist
The following object is masked from ‘package:utils’:
    history
The following objects are masked from ‘package:base’:
    grep, gsub

> setwd(“C:/Users/Usuario/Desktop/Datos”)
> datos <- read.table(“Ejemplo1-1.txt”, header = TRUE)
> datos$Fertilizantes<-factor(datos$Fertilizantes)
> OneFactor (“Observaciones”, “Fertilizantes”, Data = datos)

Se muestra la siguiente salida

  • Group Summaries
  • Comparative boxplots (Estudiaremos en el Tema 2)
  • Comparative dotplots (Estudiaremos en el Tema 2)
  • One-way Analysis of Variance
  • Tests for homogeneity of Variance (Estudiaremos en el Tema 3)
  • Tukey Honestly Significant Difference test (Estudiaremos en el Tema 2)

Group Summaries

\(  \begin{array}{| c cccc|} \hline Level & Mean & Standard \hspace {.2cm} deviation & n & Standard error     \\ \hline
1  &  50 &  0.8944272 & 6  &  0.3651484 \\
2  &  57  & 1.7320508 &   5  &  0.7745967 \\
3  &  48 &  3.6742346 &  5  &  1.6431677 \\ 4 & 47 &  2.1602469 &  4 & 1.0801234 \\ 5 & 45 & 1.6733201 & 6 & 0.6831301 \\  \hline \end{array}  \)

One-way Analysis of Variance

                     Df Sum Sq Mean Sq F value   Pr(>F)    
Fertilizantes  4   439.9    109.97      23.57     1.65e-07 ***
Residuals     21   98.0         4.67                     

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

NOTA: Al instalar el paquete BrailleR puede mostrarse la siguiente salida

> install.packages(“BrailleR”)
Installing package into
‘C:/Users/Usuario/Documents/R/win-library/3.6’
(as ‘lib’ is unspecified)
— Please select a CRAN mirror for use in this session —
Warning message:
package ‘BrailleR’ is not available (for R version 3.6.1)

En este caso, hasta que se solucione el problema y el paquete vuelva a estar disponible. Hay que instalar BrailleR de forma local.  Para ello:

1. descarga este archivo

2. Elegir en R: Paquete/ Install package(s) from local files (la última opción).

3. Elegir el archivo que ha descargado y Abrirlo.

O bien descargar el archivo de: (https://cran.r-project.org/src/contrib/Archive/BrailleR/) y seguir los pasos indicados anteriormente.

Ejemplo 1.3

En una forja se utilizan varios hornos para calentar muestras de metal. Se supone que todos los hornos operan a la misma temperatura, aunque se sospecha que quizás ésto probablemente no sea cierto. Se seleccionan aleatoriamente tres hornos y se anotan sus temperaturas en sucesivos calentamientos, obteniéndose las observaciones que se muestran en la Tabla 1-14.

\(  \begin{array}{| c| cccccc|} \hline Horno  & && Temperatura &&&     \\ \hline
1  &  91.50 &  98.30  &  98.10  &  93.50  &  93.60 & \\
2  &  88.50  &   84.65 &   79.90  &  77.35 & & \\
3  &  90.10 &   84.80  &  88.25  &  73.00 &  71.85  & 78.65 \\ \hline \end{array}  \)

Tabla 1-14. Datos del Ejemplo 1-3

A partir de estos datos, se desea saber si existe variación significativa en la temperatura de los hornos al nivel de significación del 5%.

> setwd(“C:/Users/Usuario/Desktop/Datos”)
> Temp <- read.table(“Ejemplo1-2.txt”, header = TRUE)
> Temp
Hornos Temperaturas
1       1        91.50
2       1        98.30
3       1        98.10
4       1        93.50
5       1        93.60
6       2        88.50
7       2        84.65
8       2        79.90
9       2        77.35
10      3        90.10
11      3        84.80
12      3        88.25
13      3        73.00
14      3        71.85
15      3        78.65
> mod <- aov(Temperaturas ~ factor (Hornos), data = Temp)
> mod
Call:
aov(formula = Temperaturas ~ factor(Hornos), data = Temp)
Terms:
factor(Hornos) Residuals
Sum of Squares        594.5302  413.8121
Deg. of Freedom              2        12
Residual standard error: 5.872337
Estimated effects may be unbalanced
> summary(mod)
Df Sum Sq Mean Sq F value  Pr(>F)
factor(Hornos)  2  594.5  297.27    8.62 0.00478 **
Residuals      12  413.8   34.48

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Esta tabla muestra los resultados del contraste planteado. El valor del estadístico de contraste es igual a 8.62 que deja a la derecha un p-valor de 0.00478, así que la respuesta dependerá del nivel de significación que se fije. Si fijamos un nivel de significación de 0.05 se concluye que hay evidencia suficiente para afirmar que los hornos no operan a la misma temperatura. Si fijamos un nivel de significación de 0.001, no podemos hacer tal afirmación.

Además de efectuar el contraste de hipótesis, en el modelo de efectos aleatorios interesa estimar los valores \( σ_{τ}^{2} \). El procedimiento utilizado para ello se denomina “método de componentes de la varianza“.

En este caso, R no tiene ninguna función que nos permita calcular la varianza de tratamientos, por lo que tenemos que calcularla a mano:

A continuación, aplicando el método de las componentes de la varianza, obtenemos que la estimación de la varianza del error es

\(  \widehat {σ}^{2}= \widehat {S}_{R}^{2}=34.48 \)

y la estimación de la varianza de la temperatura es

\(  \widehat {σ} _{τ}^{2}=   \displaystyle \frac  {N(I-1) } {N^{2}- \displaystyle \sum_{i}n_{i}^{2}}[ \widehat {S}_{Tr}^{2}- \widehat{S}_{R}^{2}]= \displaystyle \frac {15 \times 2 } {15^{2}-77}(297.26-34.48 )=53.26 \)

de modo que la estimación de la varianza total es igual a

\(  \widehat {σ}_{T}^{2}= \widehat {σ}_{τ}^{2}+ \widehat {σ} ^{2}=53.26+34.48=87.74  \)

Por tanto, la varianza total (87.74) se descompone en una parte atribuible a la diferencia entre hornos (53.26) y otra procedente de la variabilidad existente dentro de ellos (34.48). Comprobamos que en dicha varianza tiene mayor peso la variación entre hornos, en porcentaje un 60.70 % frente a la variación dentro de los hornos, que representa el 39.30 % del total.

Realización del ejercicio con BrailleR

> Temp <- read.table(“Ejemplo1-2.txt”, header = TRUE)

> Temp$Hornos<-factor(Temp$Hornos)
> Temp$Hornos
[1] 1 1 1 1 1 2 2 2 2 3 3 3 3 3 3
Levels: 1 2 3

> OneFactor (“Temperaturas”, “Hornos”, Data = Temp)

Se muestra la siguiente salida

Autora: Ana María Lara Porras. Universidad de Granada

Diseño estadístico de experimentos. Análisis de la varianza. Grupo Editorial Universitario