Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Contraste de Hipótesis: Pruebas de Ajuste, Homogeneidad e Independencia - Prof. Ceron lope, Resúmenes de Psicología

Este documento explora los contrastes de hipótesis en estadística, centrándose en tres tipos principales: pruebas de ajuste, homogeneidad e independencia. Se analizan conceptos como el contraste de kolmogorov-smirnov, el contraste de wilcoxon y el contraste de kruskal-wallis, proporcionando ejemplos prácticos y explicaciones detalladas de su aplicación.

Tipo: Resúmenes

2023/2024

Subido el 11/03/2025

josue-hernandez-24
josue-hernandez-24 🇲🇽

3 documentos

1 / 38

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Capítulo 12
CONTRASTES NO PARAMÉTRICOS
12.1 Introducción
12.2 Contrastes de ajuste a una distribución teórica
12.2.1 Contrastes basados en la distribución de frecuencias muestral
12.2.1.1 El contraste chi-cuadrado, χ
2
.
12.2.1.2 Contraste de Kolmogorov-Smirnov
12.2.2 Contrastes basados en estadísticos de posición
12.2.2.1 Contraste de signos
12.2.2.2 Contraste de la mediana
12.2.2.3 Contraste de Wilcoxon de rangos con signos
12.2.2.4 Contraste de Normalidad
12.3 Contrastes de homogeneidad entre distribuciones
12.3.1 Contrastes de homogeneidad en muestras bidimensionales apareadas
12.3.1.1 Contraste del signo
12.3.1.2 Contraste de Wilcoxon
12.3.2 Contrastes de homogeneidad generales
12.3.2.1 Contraste de Kolmogorov-Smirnov para dos muestras
12.3.2.2 Contraste de Mann-Whitney de sumas de rangos
12.3.2.3 Contraste de Siegel-Tukey de igualdad de varianzas
12.3.2.4 Contraste de Kruskal-Wallis
12.3.2.5 Contraste chi-cuadrado
12.3.2.6 Contraste de rachas
12.4 Contrastes de aleatoriedad
12.4.1 Contraste de rachas
12.4.2 Contraste de diferencias sucesivas
12.5 Contrastes de asociación entre distribuciones
12.5.1 Contraste de Spearman de correlación por rangos
12.5.2 Contraste de Kendall
12.5.3 Tablas de contingencia
12.5.4 Coeficientes de correlación para datos cualitativos
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26

Vista previa parcial del texto

¡Descarga Contraste de Hipótesis: Pruebas de Ajuste, Homogeneidad e Independencia - Prof. Ceron lope y más Resúmenes en PDF de Psicología solo en Docsity!

Capítulo 12

CONTRASTES NO PARAMÉTRICOS

12.1 Introducción 12.2 Contrastes de ajuste a una distribución teórica 12.2.1 Contrastes basados en la distribución de frecuencias muestral 12.2.1.1 El contraste chi-cuadrado, χ^2. 12.2.1.2 Contraste de Kolmogorov-Smirnov 12.2.2 Contrastes basados en estadísticos de posición 12.2.2.1 Contraste de signos 12.2.2.2 Contraste de la mediana 12.2.2.3 Contraste de Wilcoxon de rangos con signos 12.2.2.4 Contraste de Normalidad 12.3 Contrastes de homogeneidad entre distribuciones 12.3.1 Contrastes de homogeneidad en muestras bidimensionales apareadas 12.3.1.1 Contraste del signo 12.3.1.2 Contraste de Wilcoxon 12.3.2 Contrastes de homogeneidad generales 12.3.2.1 Contraste de Kolmogorov-Smirnov para dos muestras 12.3.2.2 Contraste de Mann-Whitney de sumas de rangos 12.3.2.3 Contraste de Siegel-Tukey de igualdad de varianzas 12.3.2.4 Contraste de Kruskal-Wallis 12.3.2.5 Contraste chi-cuadrado 12.3.2.6 Contraste de rachas 12.4 Contrastes de aleatoriedad 12.4.1 Contraste de rachas 12.4.2 Contraste de diferencias sucesivas 12.5 Contrastes de asociación entre distribuciones 12.5.1 Contraste de Spearman de correlación por rangos 12.5.2 Contraste de Kendall 12.5.3 Tablas de contingencia 12.5.4 Coeficientes de correlación para datos cualitativos

1. INTRODUCCIÓN

En ocasiones, el investigador no está seguro acerca del tipo de distribución de probabilidad de la que proceden las observaciones muestrales que ha recogido, y le parece muy arriesgado hacer un supuesto concreto acerca de la misma. Los procedimientos que hemos analizado en capítulos anteriores consideran la situación contraria, en que se hace un supuesto específico acerca de la familia de distribuciones de probabilidad que generó la muestra, y se procede a estimar los parámetros que caracterizan la distribución correspondiente: Poisson, Normal, etc., y posiblemente se lleven a cabo contrastes de hipótesis acerca de valores numéricos de dichos parámetros. Vamos a considerar en este capítulo situaciones en que el investigador no está interesado en los valores de parámetros concretos, entre otras razones, porque tampoco está muy seguro acerca de la familia de distribuciones de probabilidad con la que está trabajando, y quiere aprender algo acerca de la misma. En tal situación, el investigador puede estar interesado, precisamente, en detectar el tipo de distribución de que procede su muestra, es decir, en llevar a cabo : a) contrastes de ajuste de una distribución muestral a una distribución teórica y, en particular, contrastes de Normalidad, que son el primer tipo de contrastes que veremos en este Capítulo. El segundo tipo de preguntas se refiere a si dos o más muestras independientes proceden de una misma distribución de probabilidad, sin necesidad de especificar de qué tipo es ésta: b) contrastes de homogeneidad entre distribuciones. El tercer tipo de cuestiones se refiere a la posible independencia de distintas características observadas en la muestra, con independencia del tipo de distribución que siga cada una de ellas: d) contrastes de independencia entre características muestrales. Todos estos contrastes son denominados no paramétricos o independientes de la distribución, a diferencia de los paramétricos, aquellos que se basan en un supuesto específico acerca de la distribución de probabilidad poblacional, como son tanto los de tipo t de Student, como los de chi-cuadrado y los contrastes F que vimos en el Capítulo XX, y que requieren el conocimiento o la estimación de los valores paramétricos relevantes. Estos contrastes son generalmente rápidos y fáciles de utilizar, y apenas precisan ningún supuesto. Muchos de ellos tienen la enorme ventaja de ser aplicables a datos cualitativos, cuya clasificación ha de ser necesariamente ordinal, situación típica en la que no podríamos aplicar muchos contrastes paramétricos, que se basan en la consideración de una distribución de probabilidad de tipo continuo: Normal, t de Student, etc. Tampoco es obvio que en las situaciones en las que parece suficientemente adecuado efectuar un supuesto concreto acerca de la distribución poblacional, como puede ser la Normalidad, sea generalmente preferible utilizar contrastes paramétricos, pues los contrastes no paramétricos tienen algunas ventajas, entre ellas el tener expresiones sencillas y bastante intuitivas, y son válidos en muestras muy cortas, en las que los procedimientos paramétricos pueden no serlo. Además, no requieren la estimación de parámetros de ninguna distribución de probabilidad.

2. CONTRASTES DE AJUSTE A UNA DISTRIBUCIÓN TEÓRICA

2.1 Contrastes basados en la distribución de frecuencias muestral 2.1.1 El contraste chi-cuadrado

La idea básica de este contraste consiste en comparar las frecuencias observadas en la muestra para cada suceso relevante, con las que deberían haberse obtenido en una población que perteneciese a una distribución de probabilidad específica. La hipótesis alternativa es que la muestra procede de una distribución de probabilidad diferente de la que utilizamos en el

P^2 ' '

6 i' 1

(Oi & Ti)^2 Ti

'^ (44&50)

2 50

%^ (62&50)

2 50

%^ (52&50)

2 50

%^ (45&50)

2 50

%^ (50&50)

2 50

%^ (47&50)

2 50

'

'^36 %^144 %^4 %^25 %^0 %^9 50

'^218 50

' 4,

contrastar. La partición del espacio de sucesos es clara en este caso, pues consiste en los 6 resultados distintos que pueden observarse. La hipótesis nula H 0 recoge en tal caso una distribución de probabilidad uniforme. Es decir, la hipótesis nula es que el dado está, efectivamente, correctamente construido, y, al no tener sesgos, la probabilidad teórica con que deberíamos observar cada uno de los sucesos posibles: 1, 2, 3, 4, 5 y 6, es de 1/6, lo que aparece en la segunda línea del Cuadro 12.1:

Cuadro 12. Resultado 1 2 3 4 5 6 Total Observada (Oi) 44 62 52 45 50 47 300 Teórica (Ei) 50 50 50 50 50 50 300

mientras que la primera línea presenta las frecuencias que suponemos que se observaron en el experimento. Ello genera un valor del estadístico:

que debemos comparar con una chi-cuadrado con 6-1 = 5 grados de libertad. Esta es una tabla de clasificación simple en la que la lista de frecuencias observadas de una característica se compara con la de una distribución teórica. A lo largo de este capítulo utilizaremos tablas de clasificación, simples y múltiples, es decir, de una o varias características, sobre las que definiremos contrastes del tipo chi-cuadrado, como el que acabamos de ver. En ellos, el número de grados de libertad en tablas como la anterior es igual a: (m-1)(n-1), siendo m y n el número de columnas y de filas. En nuestro caso: (m-1)(n-1) = (6-1)(2-1) = (5)(1) = 5, que es el valor de k-1 en este caso. El valor crítico para la distribución chi-cuadrado con 5 grados de libertad a niveles de significación del 0,05 y 0,01 es, respectivamente: 11,1 y 15,1. Nuestro estadístico es inferior a ambos valores, por lo que no rechazamos la hipótesis nula de que el dado es correcto, teniendo todos los resultados posibles, del 1 al 6, igual probabilidad.

Ejemplo 12.2.- Supongamos ahora que, en un examen de preguntas con múltiple elección, cada una con 4 opciones, un alumno contesta correctamente 40 de entre las 100 preguntas que se le formularon. ¿Cómo podemos contrastar la hipótesis nula de que el alumno conoce, efectivamente, la materia de la que se ha examinado? Para ello, construimos el cuadro:

Cuadro 12. Respuestas Total Correctas Incorrectas Frecuencias observadas: 40 60 100

P^2 ' '

2 i' 1

(Oi & Ti)^2 Ti

' '

2 i' 1

(ni&n pi)^2 n pi

'^ (40&25)

2 25

%^ (60&75)

2 75

'^225 25

%^225 75

' 9 % 3 ' 12

P^2 ' '

2 i' 1

(Oi & Ti)^2 Ti

' '

2 i' 1

(ni & n pi)^2 n pi

'^ (680&750)

2 750

%^ (320&250)

2 250

' 26,

Frecuencias teóricas: 25 75 100

La hipótesis nula consiste en creer que el alumno contesta sin conocer la respuesta. Si así fuese, contestando al azar y puesto que hay cuatro opciones en cada pregunta, el alumno habría contestado correctamente una de cada cuatro preguntas, es decir, 25 de las 100 cuestiones formuladas. Por ello tenemos las frecuencias teóricas de la última columna de la tabla. El estadístico chi-cuadrado toma el valor:

que excede sobradamente de los valores críticos de la distribución chi-cuadrado con 1 grado de libertad a los niveles de significación del 0,05 y 0,01, que son: 3,84 y 6,63. En consecuencia, rechazamos la hipótesis nula, habiendo encontrado evidencia en el sentido de que el alumno conoce la materia mejor que para simplemente creer que ha contestado las cuestiones al azar.

Ejemplo 12.3.- Un partido político manifiesta que el 75% de la población es favorables a sus propuestas políticas. Para contrastar tal hipótesis frente a la alternativa de que el porcentaje de simpatizantes es inferior, se efectúa una encuesta a 1.000 personas, a las que se les pregunta si son o no favorables a dicho partido político, obteniendo el resultado de que 680 lo son, mientras que las 320 restantes se manifiestan como no favorables al partido político. Ello conduce al cuadro:

Frecuencias

Cuadro 12. Opinión del encuestado Favorable No favorable Total

Observadas 680 320 1. Teóricas 750 250 1.

en la que aparecen las frecuencias teóricas que surgen de la opinión emitida por dicho partido político. En consecuencia, tenemos el valor del estadístico:

que excede con mucho del valor crítico de las tablas correspondientes a la distribución chi- cuadrado con 1 grado de libertad. Consecuentemente, rechazamos la hipótesis nula y, con ello, la opinión emitida por el partido político en consideración. Como el número de simpatizantes observado, 680, es inferior al que correspondería a la proporción anunciada, 0,75, al rechazar la hipótesis nula pasamos a creer que la verdadera proporción es inferior a ésta. El mismo contraste puede resolverse utilizando la aproximación Normal a la distribución binomial. Recordemos que, para valores grandes de n, la distribución binomial B(n,p) puede aproximarse por una N(np, np(1-p)), por lo que la proporción, que no es sino el cociente de la binomial B(n,p) por n, se aproxima por una distribución N(p, p(1-p)/n). Así, bajo la hipótesis nula

X ' '

n i' 1

Xi

permaneciendo entonces en éste. El nivel inferior Fi(x) es igual a cero hasta que la distribución empírica llega a ser igual o mayor a Dn. A partir de entonces, Fi(x) = F(x) - Dn.

Ejemplo 12.4.- Volviendo al ejemplo del lanzamiento del dado, podemos construir el cuadro de ambas funciones de distribución:

Cuadro 12. Resultado 1 2 3 4 5 6 Función de distribución muestral

Función de distribución teórica 0,167 0,333 0,500 0,667 0,833 1, Diferencias en valor absoluto 0,022 0,020 0,027 0,010 0,010 0

con una máxima diferencia de 0,027. En nuestro caso, con n = 300, tenemos, para α = 0,05, un valor crítico de 0,035. Como el valor del estadístico de Kolmogorov-Smirnov que hemos obtenido es inferior a este nivel crítico, no rechazamos la hipótesis nula de que la muestra procede de la población teórica, que asignaba probabilidad 1/6 a cada resultado posible.

2.2 Contrastes basados en estadísticos de posición.

Otro enfoque para contrastar el grado de ajuste de la distribución muestral a una distribución teórica se basa en el uso de medidas de posición, como la mediana, los cuartiles, etc.. La idea es que si la muestra procede de la distribución hipotética que se considera, entonces sus medianas no deberían ser muy diferentes, pero tampoco sus cuartiles, etc.. Por tanto, estos contrastes se basan en la distancia entre los estadísticos de posición de la muestra y los teóricos. Distintos contrastes utilizan distintos estadísticos de posición.

2.2.1 Contraste de los signos

Este contraste considera un percentil q, 0 < q < 99 en la población que se considera bajo la hipótesis nula. Denotemos por θ el valor numérico del percentil q en la distribución teórica. A continuación, definimos para cada elemento muestral una función indicatriz Xi que toma el valor 1 si el dato está por debajo de θ, y 0 si la observación muestral está por encima de θ. Este es un fenómeno Bernouilli, con probabilidad p ' puesto que, por definición de percentil, q

bajo la hipótesis nula, exactamente q% de los elementos poblacionales están por debajo de θ,^100 y (100-q)% está por encima de θ. Si consideramos ahora la suma de tales funciones indicatriz:

esta variable seguirá una distribución binomial B(n,p). Se recoge evidencia en contra de la hipótesis nula cuando el porcentaje de elementos muestrales por debajo de θ, el teórico percentil de orden q, es muy superior o muy inferior a q%. Deberemos hacer, por tanto, un contraste de dos colas, y determinar los valores críticos λi y λs, tales que:

P [X $ (^8) s] ' '

n x' (^8) s

n x

q 100

x 1 & q 100

n&x ' " 2

P [X # (^8) i ] ' '

(^8) i

x' 0

n x

q 100

x 1 &^ q 100

n&x '^ " 2

P [X $ 8 ] ' '

n X' 8

n X

1 2

n '^ " 2

El contraste se denomina de los signos porque considera el número de signos positivos y negativos de las diferencias xi-θ, siendo xi cada una de las observaciones muestrales. Cuando el tamaño muestral es suficientemente grande, podemos utilizar la aproximación Normal a la distribución binomial, con lo que el cálculo de estos valores críticos se simplifica enormemente.

Ejemplo 12.5.- Si tomamos el primer cuartil como criterio de ajuste de la distribución muestral a una distribución teórica, la probabilidad de que un elemento muestral esté por debajo de él es 0,25, siendo 0,75 la probabilidad de que sea superior. Supongamos que disponemos de una muestra de tamaño n = 20. El número de observaciones muestrales por debajo del primer cuartil sigue, por tanto, una distribución B(20;0,25). De acuerdo con las tablas, esta variable toma un valor igual o inferior a 1 con probabilidad 0,0243, y un valor igual o inferior a 9 con probabilidad 0,9861. En consecuencia, tenemos: P( 2 # X # 9) ' 0,9618 , próxima a un nivel de confianza del 95%. Supongamos que θ es el primer cuartil bajo la hipótesis nula; deberíamos esperar tener en la muestra un número entre 2 y 9 de datos inferiores a θ. Uno ó 2, o bien 10 ó más datos inferiores a θ constituirían evidencia contra H 0. Alternativamente, si tuviéramos como hipótesis alternativa que el primer cuartil es superior a θ, utilizaríamos el hecho de que una variable B(20;0,25) toma un valor igual o inferior a 8 con probabilidad 0,9591. Por tanto, 9 o más observaciones muestrales por debajo de θ sería un número excesivo bajo H 0 , lo que nos llevaría a rechazar dicha hipótesis en favor de la alternativa.

2.2.2 El contraste de la mediana

Un caso particular del anterior, de especial interés, consiste en el uso de la mediana como estadístico de ajuste. Una vez calculada la mediana m de la distribución teórica, entonces la mitad de los elementos muestrales deberían estar por encima de m y la mitad restante por debajo de m, si la muestra procede realmente de la población teórica. Evidentemente, no se espera que esto sea exactamente cierto en todas las muestras, pero si la división que m introduce en la muestra deja porcentajes de elementos por encima y por debajo muy diferentes de 50%, entonces tendremos evidencia significativa en contra de la población teórica que hayamos especificado bajo H 0 , que deberemos rechazar. Ahora habrá que determinar un valor crítico λ tal que:

y puede utilizarse nuevamente la aproximación Normal si el tamaño muestral es suficientemente

Existe una tabla de valores críticos del estadístico T de rangos de Wilcoxon con la cual puede compararse el estadístico si no se quiere efectuar la aproximación Normal, aunque ésta es muy conveniente. Si el estadístico muestral de Wilcoxon está por debajo del valor crítico de las tablas, no podremos mantener la hipótesis nula de simetría alrededor de m.

Ejemplo 12.6.- Consideremos los resultados que en un examen de inglés ha obtenido un grupo de 20 alumnos. Queremos contrastar que las calificaciones proceden de una población simétrica alrededor de una mediana igual a 70.

Cuadro 12. Calificaciones en el examen de inglés

Calificaciones 75 62 80 71 67 69 73 83 71 74 73 79 65 73 64 67 76 72 68 74 Diferencias xi - m

Rangos 13,5 -17 19 2 -8 -2 8 20 2 11,5 8 18 -13,5 8 -15,5 -8 15,5 4,5 -4,5 11,

Al asignar rangos, cuando una determinada magnitud para la diferencia xi - m aparece repetida, se asigna a cada una de ellas el promedio de los rangos que corresponderían a dichas observaciones. Así, la menor diferencia observada es de magnitud 1, que aparece en tres ocasiones, a las que corresponderían rangos 1, 2 y 3. Su promedio es 2, que asignamos a cada una de las tres observaciones. La siguiente magnitud, que es 2, aparece en dos ocasiones, a las que corresponderían rangos 4 y 5, cuyo promedio, 4,5, es el rango que asignamos a ambas observaciones. El estadístico T+^ es igual a 141,5, mientras que T -^ = 68,5, por lo que T = T+^ - T-^ = 141,5 - 68,5 = 73, con esperanza nula, y varianza: (20)(21)(41)/6 = 2870. Por tanto, el ratio: [T- E(T)]/%Var(T) que se distribuye N(0,1) en muestras grandes, toma el valor: 73/(53,57) = 1,363, que está dentro del intervalo de confianza del 95% de dicha distribución. Por tanto, en la medida en que dicha aproximación sea correcta, no rechazamos la hipótesis nula de que la distribución es simétrica alrededor de su mediana. Si utilizamos el estadístico T+^ tipificado: [T+- E(T+)]/%Var(T+), que tiene como distribución aproximada N(0,1) en muestras grandes, toma en esta muestra un valor: [141,5 - 105]/(26,79) = -1,362 que está nuevamente dentro de la banda de confianza del 95% para la N(0,1). El lector puede comprobar que el estadístico que podría obtener con T -^ conduce al mismo resultado numérico.

2.4 Contraste de Normalidad

Un caso especial de ajuste a una distribución teórica se produce cuando la hipótesis nula especifica que dicha distribución es Normal. Para efectuar el contraste, se calculan la media, así como la varianza muestral, Sx^2 , y se ordena la muestra en sentido creciente. A continuación, se toman las diferencias entre mayor y menor elementos, segundo mayor y menor, terceros elementos menor y mayor, etc.. Cada una de estas diferencias viene corregida por un coeficiente que se toma de una tabla construida al efecto por Shapiro y Wilk, y se agregan los resultados en una suma D. El estadístico de Shapiro-Wilk es el cociente:

W '^ D^

2

n S (^) x^2

D ' (0,473) (83&62) % (0,321) (80&64) % (0,257) (79&65) % (0,209) (76&67) % (0,169) (75&67) %

(0,133) (74&68) % (0,101) (74&69) % (0,071) (73&(71) % (0,042) (73&71) % (0,014) (73&72) ' 23,

W '^ (23,44)

2 20 (27,96)

' 0,

JB ' n AS 2 6

% (K & 3)^2 24

y el valor crítico se toma de una segunda tabla propuesta por estos autores. El valor crítico que proporciona esta tabla para un nivel de significación α es el mínimo que puede tomar el estadístico W si la población de la que se extrajo la muestra es Normal.

Ejemplo 12.XX.- Las calificaciones del examen de inglés, ordenadas, son:

62 < 64 < 65 < 67 < 67 < 68 < 69 < 71 < 71 < 72 < 73 < 73 < 73 < 74 < 74 < 75 < 76 < 79 < 80 < 83

y el estadístico es:

que, genera un estadístico:

que, casualmente, coincide con el valor crítico de las tablas al 95% de confianza, y es inferior al valor crítico al 99%, que es de 0,988. El valor crítico al 90% es 0,979, por lo que no hay mucha evidencia ni a favor ni en contra de la Normalidad en este caso.

Otro contraste de Normalidad, muy popular en el trabajo econométrico, utiliza el hecho, ya mencionado en el Capítulo XX de que toda población Normal tiene coeficientes de asimetría y de curtosis igual a cero. C.M.Jarque y A.K.Bera probaron que, si la distribución de probabilidad es Normal, entonces el estadístico:

se distribuye como una chi-cuadrado con 2 grados de libertad. Para los mismos datos del ejemplo anterior, la hoja de cálculo NOPARAM.WQ1 contiene los cálculos, que conducen a un valor numérico de 0,2434 para este estadístico, muy inferior a los valores críticos, a los niveles de significación habituales, de la distribución χ 22 , por lo que no rechazamos la hipótesis nula de Normalidad.

  1. CONTRASTES DE HOMOGENEIDAD ENTRE DISTRIBUCIONES

Los contrastes de homogeneidad de entre distribuciones tratan de discernir si dos muestras independientes pueden haber sido extraídas de la misma distribución de probabilidad poblacional. La hipótesis nula es que las distribuciones de probabilidad de las que se extrajeron ambas muestras son idénticas aun siendo desconocidas, siendo la hipótesis alternativa que ambas

P(X$12,5)'P X^ &^ μ F

$^1 2,5^ &^ μ F

' P Z$^ 12,5^ &^9 2,

)'P(Z$1,

La hipótesis nula es: H 0 : la estancia no ayudó a mejorar el nivel de inglés de los alumnos. En esta aplicación no tiene sentido pensar que la estancia en el Reino Unido fue perjudicial para el nivel de inglés de los alumnos, por lo que el contraste será de una sola cola. La hipótesis alternativa es: H 1 : la estancia contribuyó a mejorar el nivel de inglés de los alumnos. En un contraste de dos colas la hipótesis alternativa consideraría tanto la posibilidad de que la estancia haya, efectivamente, contribuido a mejorar el nivel de inglés de los alumnos, como que haya contribuido a deteriorarlo. Podemos observar que la calificación del examen realizado al regreso de la estancia es, en 13 alumnos, superior a la calificación obtenida antes de la estancia, mientras que para dos alumnos fue idéntica. Si la hipótesis nula fuese cierta, esperaríamos que, a la vuelta de la estancia en el Reino Unido, la probabilidad de obtener un mejor resultado en la prueba de inglés fuese igual a la probabilidad de obtener un resultado inferior, ambas igual a 1/2. Estaríamos entonces ante una variable aleatoria binomial para cada alumno, que se materializa en dos sucesos: calificación superior, calificación inferior, con probabilidades: p = 1-p = 0,5. Eliminando de la muestra los 2 alumnos cuya calificación no varía, tenemos un total de 18 alumnos, con 13 signos positivos. Bajo H 0 , estaríamos ante una variable binomial: B(18; 0,5), con esperanza matemática: E(X) = np = (18)(0,5) = 9 y varianza igual a: np(1-p) = 18(0,5)^2 = 4,5, por lo que la desviación típica sería 2,. Utilizando la aproximación Normal a la distribución binomial, podemos calcular (aproximadamente) la probabilidad de obtener 13 o más signos positivos:

donde hemos incorporado la habitual corrección por ser la distribución que se aproxima de tipo discreto. Generalmente se utiliza esta aproximación, porque el cálculo de las probabilidades binomiales es sumamente complejo. Trabajando al nivel de significación α = 0,05, en un contraste de una cola, tendríamos un nivel crítico para la variable N(0,1) de 1,645. Es decir, bajo la hipótesis nula, estaríamos en presencia (aproximadamente) de una variable N(9; 2,12), y con probabilidad 0,95, el resultado de la prueba estandarizada debería ser inferior a 1,645. Nuestro resultado es superior, si bien ligeramente, por lo que el supuesto contenido en H 0 , que nos ha servido para obtener la distribución Normal no puede mantenerse. Rechazaríamos la hipótesis nula y pasaríamos a aceptar la hipótesis alternativa de que la estancia en UK ha servido para mejorar el nivel de inglés de los alumnos en el grupo de estudio. El nivel crítico para el contraste de una cola al nivel de confianza del 0,99 (nivel de significación de 0,01) es de 2,33, en cuyo caso no rechazaríamos la hipótesis nula y mantendríamos la hipótesis de que la estancia en UK no ha servido para mejorar el nivel de inglés de los alumnos en el grupo de estudio, mientras que al 90%, el rechazo es bastante claro. En casos en que el contraste a un determinado nivel de significación tiene una resolución tan marginal como aquí ha ocurrido trabajando al 5%, el investigador debe decidir si se decanta por aumentar o disminuir dicho nivel, y resolver el contraste al nuevo nivel escogido. En este ejemplo podríamos habernos desplazado al 0,10 o al 0,01, pero ha parecido más interesantes la segunda opción, que nos ha llevado a no rechazar la hipótesis nula, muy posiblemente porque quisiéramos estar seguros de que las diferencias realmente existen si es que creemos detectarlas.

Este contraste tiene la misma limitación que el similar que ya examinamos en la Sección 12.2.2, de tener en cuenta únicamente los signos de las diferencias, pero no su magnitud, a diferencia del contraste de Wilcoxon que presentamos a continuación. A diferencia de éste, sin embargo, el contraste del signo tiene la ventaja de poder ser utilizado con distribuciones cualitativas.

3.1.2. Contraste de Wilcoxon

El contraste de Wilcoxon para la homogeneidad de distribuciones es muy similar al contraste de igual nombre que ya vimos para el ajuste de una distribución muestral a una distribución teórica.

Ejemplo 12.8.- Si tomamos nuevamente el ejemplo de los alumnos de inglés, el Cuadro 2 presenta todos los cálculos necesarios para obtener el estadístico T de Wilcoxon: en la cuarta columna aparece no sólo el signo de cada diferencia, sino también su magnitud. Al igual que en el contraste de los signos, ignoramos los casos en que las observaciones numéricas en ambas muestras coinciden. La quinta columna asigna rangos a tales diferencias, asignando a las observaciones con igual rango, el promedio de estos, de igual modo que hicimos en el contraste descrito en la Sección 2.2.3. De acuerdo con la hipótesis nula, las diferencias provienen de una distribución simétrica con mediana cero.

El contraste de Wilcoxon se basa en que, si las dos muestras fuesen homogéneas, entonces las diferencias entre cada dos observaciones correspondientes no sólo se distribuirían uniformemente entre valores positivos y negativos, sino que también sus magnitudes se distribuirían simétricamente: habría, en promedio, tantas diferencias pequeñas de signo positivo

Dn 1 , n 2 ' supremo x

  • Fn 1 (x) & Fn 2 (x) *

8 ' k

n 1 % n 2 n 1 n 2

Si las dos muestras proceden de la misma población, sus funciones de distribución empíricas no pueden ser muy distintas, por lo que el contraste es siempre de una cola, y se rechaza la hipótesis nula de igual distribución si el estadístico toma un valor suficientemente grande. Para ello, se utilizan las tablas de este estadístico, para encontrar el umbral λ tal que: P (Dn 1 ,n 2 $ 8 ) ' ". Dicho valor crítico puede aproximarse, cuando ambas muestras son grandes, por:

siendo k = 1,22; 1,36; 1,63 a niveles de confianza del 90%, 95% y 99%, para el contraste de dos colas, y de k = 1,07; 1,22 y 1,52 para contrastes de una sola cola. El contraste de Kolmogorov-Smirnov tiene más potencia para el caso en que las distribuciones tienen diferentes medianas que para el caso en que, teniendo la misma posición central, difieren en su dispersión.

Ejemplo.- Supongamos que disponemos de dos muestras, ambas sobre el intervalo [0,1]: Muestra 1: 0,65 0,31 0,42 0,81 0,12 0,91 0,72 0,41 0,94 0,61 0,52 0,21 0,16 0,74 0,65 0, 0,44 0,42 0,56 0, Muestra 2: 0,15 0,94 0,81 0,72 0,21 0,35 0,18 0,74 0,73 0,62 0,85 0,91 0,18 0,23 0,

a partir de las cuales obtenemos las siguientes distribuciones empíricas sobre intervalos de longitud 0,20:

Funciones de distribución empíricas

Fn(x) 0 #x<0,20 0,20#x<0,40 0,40#x<0,60 0,60#x<0,80 0,80#x<1, Muestra 1: n 1 = 20 0,10 0,20 0,50 0,80 1, Muestra 2: n 2 = 15 0,20 0,40 0,40 0,73 1,

La máxima diferencia entre ambas funciones de distribución se produce en el segundo intervalo, y es de: 0,20 - 0,40 = -0,20. El valor crítico de las tablas del estadístico de Kolmogorov-Smirnov para estos tamaños muestrales es de 13/30 = 0,433, por lo que no rechazamos la hipótesis nula de igualdad de distribuciones de probabilidad. La aproximación: n 1 %n 2 ) / n 1 n 2 es, en este caso, igual a 0,464, no muy diferente del valor de las tablas. Tampoco en esta comparación rechazaríamos la hipótesis de igualdad de distribuciones.

3.2.2 El contraste de Mann-Whitney de sumas de rangos

Este estadístico, introducido simultáneamente por Mann y Whitney en 1947, se utiliza para contrastar si dos muestras, extraídas independientemente, proceden de la misma población. El único

U 1 ' n 1 n 2 %

n 1 (n 1 %1) 2

& R 1

U 2 ' n 1 n 2 %

n 2 (n 2 %1) 2

& R 2

supuesto preciso es que la población o poblaciones de que se han extraído las muestras, sean de tipo continuo, pero no requiere simetría. La hipótesis nula H 0 es que las esperanzas matemáticas de ambas poblaciones son iguales, mientras que la alternativa puede establecer que las esperanzas matemáticas son diferentes (contraste de dos colas), o que una de ellas, previamente escogida, es superior a la otra (contraste de una cola). Este contraste resume, por tanto, las características de la distribución de probabilidad en su esperanza matemática. El planteamiento lógico del contraste es, por tanto, igual al del contraste de igualdad de esperanzas que ya resolvimos mediante un estadístico t de Student cuando suponíamos que ambas poblaciones eran Normales. El estadístico U se construye, al igual que los anteriores, a partir de las sumas de rangos. Supongamos que disponemos de dos muestras de tamaño n 1 y n 2 , tomadas de dos poblaciones potencialmente diferentes. Comenzamos considerando ambas como una muestra global de tamaño n 1 +n 2 , y asignamos rangos a todos estos elementos, resolviendo casos de igualdad de rangos del mismo modo que en los estadísticos previos, ignorando dichas observaciones. Después, calculamos las sumas de rangos, R 1 y R 2 , de ambas muestras. A continuación, calculamos los estadísticos:

y se compara el menor de ellos Um = min (U 1 , U 2 ), con los valores críticos de las tablas específicamente calculadas para este estadístico, que aparecen en el Apéndice XX. Si el valor del estadístico muestral es inferior al de las tablas, se rechaza la hipótesis nula de igualdad de distribuciones de probabilidad.

Ejemplo 10.- Una determinada universidad cree que es posible que los alumnos que proceden de instituciones privadas de enseñanza media tengan distinto rendimiento académico en las licenciaturas universitarias que aquellos que provienen de instituciones públicas. Con el objeto de contrastar esta hipótesis, se recogen aleatoriamente los siguientes resultados de las pruebas de selectividad:

Cuadro 12. Puntuación Priv ada

Públ ica

que genera las dos primeras filas en la siguiente tabla de rangos, obtenidos a partir de la muestra agregada:

Cuadro 12. Rangos en la muestra global

Privada 32 5,5 13,5 30,5 13,5 18,5 22 29 8 7 20,5 27,5 20,5 24 25,5 10,5 1 10,5 319,

E(Um ) ' (18)(14) 2

' 126

Desviación típica(Um ) '^ (18)(14)(18%^14 %1) 12

' 26,

Z '^ 103,5^ &^126 26,

' 0,

Rm - N

nm (n % 1) 2

;

n 1 n 2 (n % 1) 2

por lo que el valor estandarizado de nuestro estadístico, 103,5, es igual a:

que está notablemente por debajo de los valores críticos para el contraste de una cola en una población Normal(0,1), a los niveles de significación habituales: 0,10, 0,05 ó 0,01. En consecuencia, no rechazamos la hipótesis nula, llegando así a la misma conclusión que en el análisis anterior. Una segunda forma de calcular el estadístico consiste en comparar cada dato de una de las dos muestras, con todos los de la otra, para contabilizar el número de ocasiones en que se tiene que el primero es inferior al segundo. Si efectuamos este ejercicio con los datos del ejemplo, la tercera fila del cuadro muestra que cada puntuación de un alumno de enseñanza privada resulta inferior a las puntuaciones obtenidas por los alumnos de enseñanza pública en 99 ocasiones. Además, puede comprobarse que se producen 9 casos de empates, con igual calificación entre alumnos de ambos tipos de enseñanza. Sumando la mitad de los empates, 4,5, al total de 99, tenemos 103,5, el mismo valor del estadístico que antes ya calculamos.

3.2.3 Contraste de Siegel-Tukey de igualdad de varianzas

El procedimiento de Mann-Whitney fue adaptado por S.Siegel y J.Tukey puede adaptarse para contrastar si dos muestras independientes han sido extraídas de poblaciones con igual varianza, frente a la hipótesis alternativa de que han sido extraídas de poblaciones con varianzas diferentes. Para ello, una vez ordenados todos los elementos de ambas muestras, combinados, se asignan rangos comenzando desde el menor y el mayor, hacia el centro: al menor valor se le asocia el rango 1; al valor más elevado y al que le precede se asignan los rangos 2 y 3 ; al segundo y tercer valores más bajos se asignan los rangos 4 y 5, y así sucesivamente. Si el número total de observaciones en ambas muestras es par, una de ellas se quedará sin rango. Las expresiones anteriores se utilizan para calcular el estadístico Rm, que es la suma de rangos de la muestra de menor tamaño. La interpretación del contraste estriba en que si una de las dos muestras procede de una población con mayor dispersión, recibirá los rangos menores, mientras que la que procede de una muestra de menor variabilidad recibirá los rangos mayores. Puede apreciarse que el contraste tiene interés cuando condicionamos en que ambas distribuciones tienen una media de posición central similar. El estadístico Rm puede aproximarse, para n 1 +n 2 > 20, por una distribución Normal:

donde nm = min(n 1 ,n 2 ), y n = n 1 +n 2.

N (14) (31) 2

; (14) (16) (31) 12

' N 217 ; 578,

Ejemplo 12.7 (NOPARAM.WQ1).- Supongamos que, para tratar de evaluar las diferentes capacidades de 16 hombres y 14 mujeres, se somete a un examen lógico a una muestra de 16 estudiantes varones y 14 estudiantes mujeres, obteniendo los siguientes resultados:

Puntuación Hombre s

Mujeres 84 88 94 90 78 82 64 70 82 74 76 80 78 90

Las calificaciones ordenadas son:

64m; 66h; 68h; 70h; 70m; 70h; 72h; 74m; 74h; 74h; 76m; 76h; 76h; 78m; 78m; 80m; 82m; 82m; 82h; 82h; 84h; 84h; 84m; 85h; 88m; 90m; 90h; 90m; 92h; 94m;

donde hemos anotado si corresponden a hombres o mujeres. Los rangos correspondientes a este contraste son:

64m; 66h; 68h; 70h; 70m; 70h; 72h; 74m; 74h; 74h; 76m; 76h; 76h; 78m; 78m; 80m; 82m; 82m; 82h; 82h; 84h; 84h; 84m; 85h; 88m; 90m; 90h; 90m; 92h; 94m; con rangos: 1m 4h 5h 8h 9m 12h 13h 16m 17h 20h 21m 24h 25h 28m 29m -- 27m 26m 23h 22h 19h 18h 15m 14h 11m 10m 7h 6m 3h 2m

que producen sumas de rangos 201 para hombres y 234 para mujeres. La distribución aproximada es: