Apunte 07: Prueba t para muestras dependientes e independientes
Author
David Torres Irribarra e Isidora Naranjo López
Published
May 9, 2024
Prueba t para muestras dependientes
La prueba t para muestras dependientes se usa cuando quiero ver si existe evidencia de que las diferencias entre dos muestras pequeñas y relacionadas no proviene de una población con una media de las diferencias determinada y una desviación estándar desconocida.
Prueba t para muestras dependientes (“a mano”)
Usando R, solo necesito 3 cosas para poder llevar a cabo una prueba t de muestras dependientes o pareadas:
Tengo que saber entonces cual es el promedio poblacional de las diferencias contra el cual realizaré la prueba t, el cual es usualmente definido como parte del problema o pregunta que se quiere responder.
Tengo que tener los datos de la primera muestra.
Y tengo que tener los datos de la segunda muestra.
Por ejemplo, si tengo una muestra de 5 bebés recién nacidas (Ana, Luisa, Javiera, Catalina, Rita) con sus alturas en centímetros cuando tenían 3 meses y cuando tenían 6 meses:
Y quiero saber si el crecimiento de estas bebés es distinto del crecimiento normal esperado de 6 centimetros entre los 3 y 6 meses, puedo usar una prueba t para muestras dependientes.
La prueba t entonces se construye de la siguiente manera:
Elegimos un nivel de confianza al cual realizaremos nuestra prueba. En este ejemplo vamos a usar un 99% de confianza, lo que equivale a un alfa de 0.01
Construimos la hipótesis nula asumiendo que la media poblacional de la diferencia en el crecimiento \(\mu\) de la cual provienen nuestros cinco casos es igual a la media poblacional del crecimiento típico \(\mu_0\) (6 centímetros en este caso) y escribimos esto indicando:
\[ H_o: \mu = \mu_0 \]
o también podemos escribir:
\[ H_o: \mu - \mu_0 = 0 \]
Construimos la hipótesis alternativa, la cual indica lo contrario a la hipótesis nula:
\[ H_a: \mu \neq \mu_0 \]
o también podemos escribir:
\[ H_a: \mu - \mu_0 \neq 0 \]
Calculamos el estadigrafo t, basado en el promedio de nuestros datos:
altura3m <-c(58, 57, 62, 61, 60)altura6m <-c(68, 65, 72, 67, 68)# calculamos las diferencias para cada bebe entre estos dos tiemposdif_altura <- altura6m - altura3m# estas diferencias son los datos sobre los que haremos nuestra prueba tdif_altura
[1] 10 8 10 6 8
# el promedio muestral de las diferencias es nuestro estimador del promedio poblacional mumu <-mean(dif_altura) # estamos contrastando con el crecimiento típico de 6 cm# esto define la media de nuestra hipotesis nulamu_0 <-6# calculado en base a la desviación estándar de la muestra de diferenciaserror_est <-sd(dif_altura)/sqrt(5)estad_t <- (mu - mu_0)/error_estround(estad_t,2)
[1] 3.21
Identificamos la probabilidad de observar una muestra así o más distante del promedio poblacional de la hipotesis nula, nuestro valor p o p-value, usando una distribución t con los grados de libertado apropiados, en este caso 4. Recuerden que en la prueba t de muestras dependientes calculamos los grados de libertad restando 1 al número de casos.
Decidimos en base a nuestro nivel de confianza y el valor p: En este caso nuestro alfa de 0.01 indicaba que solo rechazaríamos la hipótesis nula si la distancia entre la media de las diferencias en la muestra y el promedio poblacional de las diferencias se observaba con una probabilidad menor a .01. En este caso podemos ver que la probabilidad de observar una diferencia de |8.4 cms| o mayor ocurre con una probabilidad de .03 o un 3% de las veces. Por ende, no rechazamos la hipótesis nula.
Prueba t para muestras dependientes (con R)
Nuevamente, no es necesario hacer estos pasos por separado si usamos R, ya que contamos con el comando t.test que nos permitirá automatizarlos:
altura3m <-c(58, 57, 62, 61, 60)altura6m <-c(68, 65, 72, 67, 68)# El primer argumento de t.test recibe los datos de la primera muestra que queremos analizar# El segundo argumento de t.test recibe los datos de la segunda muestra que queremos analizar# El tercer argumento que usamos, llamado mu, define el promedio poblacional que usamos para definir nuestra hipótesis nula.# El cuarto argumento, llamado paired, nos permite indicar que es una prueba de muestras dependientes o pareadas al indicar TRUE# El quinto argumento que usamos, llamado conf.level, define el grado de confianzat.test(altura6m, altura3m, mu =6, paired =TRUE, conf.level =0.99)
Paired t-test
data: altura6m and altura3m
t = 3.2071, df = 4, p-value = 0.03268
alternative hypothesis: true mean difference is not equal to 6
99 percent confidence interval:
4.954611 11.845389
sample estimates:
mean difference
8.4
En los resultados que arroja R podemos ver todas las piezas de información relevantes:
data: altura6m and altura3m — Nos indica que datos usamos para hacer el análisis
t = 3.2071 — Nos indica el valor del estadígrafo t que calculamos
df = 4 — Nos indica el numero de grados de libertad
p-value = 0.03268 — Nos indica la probabilidad de observar una distancia del tamaño observado o mayor entre la diferencia esperada de 6 y la media de las diferencias (asumiendo la hipótesis nula).
alternative hypothesis: true difference in means is not equal to 6 — Declara la hipótesis alternativa nombrando el promedio poblacional que usamos para definir la hipótesis nula.
99 percent confidence interval: 4.954611 11.845389 — Nos muestra el intervalo de confianza de las diferencias en torno al promedio muestral de las diferencias construido con el nivel de confianza definido al ejecutar la prueba.
mean of the differences 8.4 — Nos muestra el promedio de las diferencias entre los valores de las dos muestras observados en los datos.
Ejemplo de prueba t con muestras dependientes: Hábitos de lectura en padres y madres
Ahora vamos a revisar un ejemplo de Prueba t para muestras dependientes usando una base de datos que recoge información respecto a los hábitos de lectura de madres y padres.
Queremos ver si existen diferencias significativas entre cómo se comportan los promedios en la frecuencia de lectura de la madre y la del padre, pues estos valores no son independientes, porque son los dos padres del mismo niño. En este caso, es natural pensar que la frecuencia en la que leen tanto el padre y la madre de un mismo niño o niña podrían estar asociadas.
En este caso, la expectativa en la hipotesis nula sería que no existan diferencias, por ende, que el promedio de las diferencias en frecuencia de lectura entre madres y padres sería 0.
Podemos hacer nuestra prueba t de muestras dependientes con las variables mom.fre y dad.fre que indican la frecuencia de lectura de las madres y padres respectivamente usando el comando t.test:
# Cargamos la base de datoslectura <-read.csv("https://david-ti.github.io/introstats/data/habitos_lectura_padres.csv")# Visualizamos un resumen de la base de datoshead(lectura)
# Realizamos la prueba t# Si no especificamos un mu para la hipotesis nula se asume que es 0 # (lo que sería correcto en este caso)# Si no especificamos el nivel de confianza se asume por defecto 95%t.test(lectura$fre.mom, lectura$fre.dad, paired =TRUE)
Paired t-test
data: lectura$fre.mom and lectura$fre.dad
t = 5.2674, df = 18, p-value = 5.224e-05
alternative hypothesis: true mean difference is not equal to 0
95 percent confidence interval:
0.6960618 1.6197277
sample estimates:
mean difference
1.157895
En base a los resultados, podemos concluir con un 95% de confianza que las madres en esta muestra exhiben una diferencia estadisticamente significativa con los padres respecto a la frecuencia de lectura, por lo que, por ejemplo, según esto podríamos considerar necesario hacer un programa de incentivo de lectura solo para los padres de la población de la cual proviene esta muestra.
Podemos ilustrar la diferencia entre estos dos grupos usando boxplots:
Prueba t para muestras independientes
La prueba t para muestras independientes se usa cuando quiero ver si existe evidencia de que las diferencias entre dos muestras pequeñas provienen de una misma población y donde no se conoce la desviación estándar poblacional.
Prueba t para muestras independientes (“a mano”)
Usando R, solo necesito 3 cosas para poder llevar a cabo una prueba t de muestras independientes:
Tengo que saber entonces cuál es la diferencia entre promedios poblacionales contra el cual se realiza la prueba t, la cual es usualmente definida como parte del problema o pregunta que se quiere responder.
Tengo que tener los datos de la primera muestra.
Y tengo que tener los datos de la segunda muestra.
Por ejemplo, si tengo una muestra de 5 bebés mujeres (Ana, Luisa, Javiera, Catalina, Rita) y 5 bebés hombres (Teo, Luis, Pablo, Esteban, Marco) con sus alturas en centímetros cuando tenían 3 meses. Ambos grupos son independientes, no hay relación entre las 5 bebés mujeres y los 5 bebés hombres.
En este caso me pregunto si ambos grupos provienen de una misma población, y puedo usar una prueba t para muestras independientes para responder esta pregunta.
La prueba t entonces se construye de la siguiente manera:
Elegimos un nivel de confianza al cual realizaremos nuestra prueba. En este ejemplo vamos a usar un 95% de confianza, lo que equivale a un alfa de 0.05
Construimos la hipótesis nula asumiendo que la media poblacional de la diferencia en el crecimiento \(\mu_1\) de la cual provienen los cinco casos de bebés mujeres es igual a la media poblacional de donde provienen los cinco casos de bebés hombres \(\mu_2\) y escribimos esto indicando:
\[ H_o: \mu_1 = \mu_2 \]
o también podemos escribir:
\[ H_o: \mu_1 - \mu_2 = 0 \]
Construimos la hipótesis alternativa, la cual indica lo contrario a la hipótesis nula:
\[ H_a: \mu_1 \neq \mu_2 \]
o también podemos escribir:
\[ H_a: \mu_1 - \mu_2 \neq 0 \]
Calculamos el estadigrafo t, basado en el promedio de nuestros datos:
mujeres <-c(58, 57, 62, 61, 60)hombres <-c(63, 60, 67, 62, 63)# el promedio muestral del grupo 1 es nuestro estimador de mu_1mu_1_est <-mean(mujeres) # el promedio muestral del grupo 2 es nuestro estimador de mu_2mu_2_est <-mean(hombres) # Nuestra hipótesis nula dice que la diferencia entre estos dos grupos es 0mu_nula <-0# calculado en base a la raíz cuadrada de las varianzas ponderadas por el tamaño de cada muestra (asumiendo que las varianzas no son iguales)error_est <-sqrt(var(mujeres)/5+var(hombres)/5 )estad_t <- ( (mu_1_est - mu_2_est) - mu_nula)/error_estround(estad_t,2)
[1] -2.31
Identificamos la probabilidad de observar una muestra así o más distante del promedio poblacional de la hipótesis nula, nuestro valor p o p-value, usando una distribución t con los grados de libertad apropiados, en este caso 8. Recuerden que en la prueba t de muestras independientes calculamos los grados de libertad restando 2 al número total de casos.
Decidimos en base a nuestro nivel de confianza y el valor p: En este caso nuestro alfa de 0.05 indicaba que solo rechazaríamos la hipótesis nula si la distancia entre las medias de las muestras es observada con una probabilidad menor a .05. En este caso podemos ver que la probabilidad de observar una diferencia de |-3.4 cms| o mayor ocurre con una probabilidad de 0.049 de las veces. Por ende, rechazamos la hipótesis nula y concluimos que hay evidencia suficiente para adoptar la hipótesis alternativa que sostiene que estos dos grupos pertenecen a dos poblaciones con alturas distintas.
Prueba t para muestras independientes (con R)
Nuevamente, no es necesario hacer estos pasos por separado si usamos R, ya que contamos con el comando t.test que nos permitirá automatizarlos:
# El primer argumento de t.test recibe los datos de la primera muestra que queremos analizar# El segundo argumento de t.test recibe los datos de la segunda muestra que queremos analizar# El tercer argumento que usamos, llamado conf.level, define el grado de confianza# el cuarto argumento var.equal lo usamos para indicar que asumimos varianzas iguales en ambas muestras.# Atencion que al no definir mu se asume que la hipotesis nula asume que la diferencia de grupos es 0t.test(mujeres, hombres, conf.level =0.95, var.equal =TRUE)
Two Sample t-test
data: mujeres and hombres
t = -2.3134, df = 8, p-value = 0.04943
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-6.78912009 -0.01087991
sample estimates:
mean of x mean of y
59.6 63.0
En los resultados que arroja R podemos ver todas las piezas de información relevantes:
data: mujeres and hombres — Nos indica que datos usamos para hacer el análisis
t = -2.3134 — Nos indica el valor del estadígrafo t que calculamos
df = 8 — Nos indica el número de grados de libertad
p-value = 0.04943 — Nos indica la probabilidad de observar una distancia del tamaño observado o mayor entre la diferencia esperada de 6 y la media de las diferencias (asumiendo la hipótesis nula).
alternative hypothesis: true difference in means is not equal to 0 — Declara la hipótesis alternativa nombrando el promedio poblacional que usamos para definir la hipótesis nula.
95 percent confidence interval: -6.78912009 -0.01087991 — Nos muestra el intervalo de confianza de las diferencias en torno al promedio muestral de las diferencias construido con el nivel de confianza definido al ejecutar la prueba.
mean of x mean of y 59.6 63.0 — Nos muestra el promedio observados para ambas muestras.
Ejemplos de prueba t con muestras independientes: Autoestima en hombres y mujeres
Ahora vamos a revisar un ejemplo de Prueba t para muestras independientes usando la variable autoestima de la base de datos polivictimización, introducida en el apunte 06.
Queremos ver si existen diferencias significativas entre como se comportan los promedios en la variable autoestima en hombres y mujeres.
En este caso, la expectativa en la hipotesis nula sería que no existan diferencias, por ende, que el promedio de las diferencias en autoestima entre hombres y mujeres sería 0.
#Cargamos la base de datospoli <-read.csv("https://david-ti.github.io/introstats/data/datos_poli_2017.csv")
Recordamos que la variable se compone de 10 preguntas:
AU1 Siento que soy una persona valiosa, al menos igual que los demás
AU2 Siento que tengo cualidades positivas
AU3 En general, tiendo a sentir que soy un fracaso
AU4 Soy capaz de hacer las cosas tan bien como la mayoría de las otras personas
AU5 Siento que no tengo mucho de lo que sentirme orgulloso
AU6 Tengo una actitud positiva hacia mí mismo
AU7 Considerando todas las cosas, estoy satisfecho conmigo mismo
AU8 Me gustaría tener más respeto conmigo mismo
AU9 Me siento inútil a veces
AU10 Algunas veces pienso que no soy bueno en absoluto
#Invertimos los puntajes de aquellas preguntas en donde correspondepoli$au3i <- (5+1)-poli$au3poli$au5i <- (5+1)-poli$au5poli$au8i <- (5+1)-poli$au8poli$au9i <- (5+1)-poli$au9poli$au10i <- (5+1)-poli$au10# Creamos un objeto para almacenar las 10 preguntaspoli$au <-NApoli$au <- poli[,c("au1","au2","au3i","au4","au5i","au6","au7","au8i","au9i","au10i")]# Calculamos el puntaje de autoestima para cada persona de la base de datospoli$puntaje_au <-rowSums(poli$au)
Podemos hacer nuestra prueba t de muestras independientes con las variables puntaje_au y sexo:
# t.test (y-x) Muestras independientes: mujeres y hombres#En este caso no hay una variable con los datos de cada grupo#En cambio, tenemos una variable con los puntajes y otra que indica la pertenencia a cada grupo.#En este caso, se usa como primer argumento: variable de respuesta ~ variable con los grupost.test(poli$puntaje_au~poli$sexo)
Welch Two Sample t-test
data: poli$puntaje_au by poli$sexo
t = -25.199, df = 17846, p-value < 2.2e-16
alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
95 percent confidence interval:
-3.044374 -2.604946
sample estimates:
mean in group 1 mean in group 2
33.46143 36.28609
En base a los resultados, podemos concluir con un 95% de confianza que hay una diferencia estadísticamente significativa en los puntajes entre los dos grupos, con los hombres teniendo puntajes más altos en promedio en comparación con las mujeres.
Podemos visualizar los resultados encontrados mediantes un boxplot:
boxplot(puntaje_au~sexo, data = poli, names=c("Mujeres", "Hombres"),main ="Comparacion de promedios de autoestima segun sexo")
Pruebas bi-direccionales versus uni-direccionales
Hasta ahora todas las pruebas estadisticas que hemos realizado han sido pruebas bi-direccionales, vale decir, que hemos formulado nuestras hipótesis nulas indicando que no existen diferencias “para ninguno de los dos lados”. Puesto de otro modo, estamos dispuestos a rechazar la hipótesis nulas si observamos resultados muy por sobre el promedio o muy por debajo del promedio.
Sin embargo, en casos muy especificos, podría no ser razonable el formular una hipótesis nula en la cual estemos dispuesto a considerar cambios hacia ambos lados. Por ejemplo, si nos estamos preguntando si un grupo de bebés creció o no creció en un lapso de tiempo en una prueba t para muestras dependientes, no parece tener sentido formular la hipotesis alternativa considerando la posibilidad de que los bebés tengan una menor estatura. En ese caso podríamos querer formular una prueba unidireccional, en donde nuestra hipótesis alternativa especifica que el crecimiento es mayor a 0; vale decir, solo consideraremos evidencia de un cambio en el promedio por sobre 0 para rechazar la hipotesis nula.
Nuestra hipótesis nula se puede formular de la misma forma:
\[ H_o: \mu = \mu_0 \]
o también podemos escribir:
\[ H_o: \mu - \mu_0 = 0 \]
Pero al construir la hipótesis alternativa debemos indicar que estamos enfocándonos solo en una dirección:
\[ H_a: \mu > \mu_0 \]
o también podemos escribir:
\[ H_a: 0 < \mu \]
Podemos volver a correr nuestro ejemplo de prueba t de muestras dependientes, pero esta vez indicaremos que solo queremos usar una prueba con una dirección.
Prueba t para muestras dependientes unidireccional
Nuevamente, no es necesario hacer estos pasos por separado si usamos R, ya que contamos con el comando t.test que nos permitirá automatizarlos:
altura3m <-c(58, 57, 62, 61, 60)altura6m <-c(68, 65, 72, 67, 68)# Los argumentos se mantienen, excepto el quinto argumento que es nuevo# El argumento "alternative" nos permite indicar que tipo de hipotesis alternative queremos# En este caso indicamos que la hip. alt. debe buscar solo diferencias mayores a la la media de la hipotesis nula.t.test(altura6m, altura3m, mu =6, paired =TRUE, alternative ="greater")
Paired t-test
data: altura6m and altura3m
t = 3.2071, df = 4, p-value = 0.01634
alternative hypothesis: true mean difference is greater than 6
95 percent confidence interval:
6.804672 Inf
sample estimates:
mean difference
8.4
Es importante entender que al hacer una prueba de una dirección al 95% estamos concentrando la probabilidad de detectar cambios en un solo extremo, de forma que se hace menos exigente el tamaño de las diferencias que se requieren para rechazar la hipotesis nula en comparación de una prueba bi-direccional.
Podemos ejemplificar esta idea usando la distribución normal estandar que usamos en la prueba Z. En la hipótesis bi-direccional, el hacer una prueba al 95% requiere que encontremos valores de |Z| superiores a 1.96:
Esto se debe a que estamos “dividiendo” el 5% de error tipo 1 en ambas direcciones. Sin embargo, cuando hacemos una prueba unidireccional estamos concentrando el 5% de error en una sola cola. En el caso del ejemplo anterior, estamos buscando detectar valores por sobre el valor Z de 1.64 en la cola superior:
Por ende, si quisieramos realizar una prueba uni-direccional que fuese igualmente exigente que una prueba bi-direccional al 95%, tendríamos que realizarla al 97.5% de confianza:
t.test(altura6m, altura3m, mu =6, paired =TRUE , alternative ="greater", conf.level = .975)
Paired t-test
data: altura6m and altura3m
t = 3.2071, df = 4, p-value = 0.01634
alternative hypothesis: true mean difference is greater than 6
97.5 percent confidence interval:
6.322299 Inf
sample estimates:
mean difference
8.4