6 errores que cometes al usar las pruebas de hipótesis clásicas

6 errores que cometes al usar las pruebas de hipótesis clásicas

sep´17 Rosana Ferrero 4 comentarios

Cualquier investigador habrá escuchado hablar alguna vez de las técnicas paramétricas clásicas (la t de Student, el ANOVA, la regresión por mínimos cuadrados, etc.). Son el tipo de pruebas más utilizado aunque requieren que se cumplan ciertos supuestos (como el de normalidad y homogeneidad de varianza) para que realmente generen buenos resultados.

Cuando los datos no cumplen con estos supuestos disminuye la capacidad de detectar efectos reales (afecta al p-valor, al tamaño del efecto y a los intervalo de confianza estimados).

¡Toda la interpretación de tus datos puede ser errónea!.

Hoy te contamos cómo resolver estos problemas.

Tabla de contenidos

Los problemas de los métodos clásicos

Revisemos los principales problemas de los métodos paramétricos clásicos para entender su importancia.

I. Los datos reales suelen ser multimodales, asimétricos y con largas colas en su distribución de valores, por lo que raramente son normales.

II. La igualdad de varianza poblacional (i.e. homogeneidad de varianza u homocedasticidad) suele no cumplirse, debido a la naturaleza de los diseños experimentales y de las muestras.

III. Variabilidad inherente a los datos. Los grupos definidos por un factor pre-existente pueden tener varianzas diferentes. Por ejemplo, la respuesta a un test cognitivo es más variable en personas mayores que en los jóvenes. También puede ocurrir que una variable experimental cause diferencias en la variabilidad entre grupos. Por ejemplo, la respuesta de los sujetos ante un nuevo fármaco pueden generar gran variabilidad en el grupo experimental, mientras que el grupo control tendrá una respuesta bastante homogénea; aún cuando en el pre-test los grupos fueran homogéneos en su respuesta.

El incumplimiento de la normalidad y homogeneidad de varianza puede tener gran influencia en los resultados de las pruebas paramétricas clásicas, en particular en las probabilidades de error tipo I y tipo II.

  • El error tipo I ocurre cuando falsamente se rechaza la hipótesis nula (i.e. concluimos que existe un efecto cuando realmente no ocurre). El nivel de confianza (1-alfa) es la probabilidad de no cometer el error tipo I.
  • El error tipo II ocurre cuando la hipótesis nula no es rechazada aún cuando a pesar de que es falsa (i.e. concluimos falsamente que no existe efecto). La potencia (1-beta) de una prueba es la probabilidad de que el error tipo II no ocurra.

6 errores comunes que cometen los investigadores

Estos son los 6 errores más comunes que cometen los investigadores al usar las pruebas de hipótesis clásicas:

1. Falta de corroboración de los supuestos clásicos. Por olvido o por desconocimiento. Además, softwares como el SPSS no son muy útiles para ello. Por ejemplo, cuando los tamaños muestrales son pequeños, el test de Levene para la homogeneidad de varianza, puede dar resultados engañosos pero no es fácil encontrar alternativas en SPSS. También, las pruebas para corroborar los supuestos tienen sus propios supuestos. Las pruebas de normalidad asumen homocedasticidad, y las pruebas de homocedasticidad asumen normalidad.

No se debemos utilizar solamente pruebas estadísticas para corroborar los supuestos, tendremos que ayudarnos con gráficos para determinar qué ocurre con nuestros datos.

2. Argumento erróneo sobre la resistencia. Se suele decir que las pruebas paramétricas clásicas son resistentes a las variaciones en los supuestos de normalidad y homocedasticidad, negando así la necesidad de utilizar procedimientos alternativos. Sin embargo, esta afirmación se basa en estudios que solo analizan el impacto de pequeñas desviaciones de la normalidad y homocedasticidad, no en grandes desviaciones que son las más frecuentes en los datos reales. Incluso estos estudios suelen analizar dichos supuestos de manera aislada cuando en la práctica los dos supuestos se incumplen al mismo tiempo.

Las pruebas paramétricas clásicas son resistentes solo en un número limitado de circunstancias, no para la mayoría de ellas. Además, aún si un investigador insiste en que las pruebas clásicas son resistentes, debemos recordarle que las pruebas robustas son más potentes.

3. Incorrecta utilización de las transformaciones. Algunos investigadores suelen optar por transformar sus datos para cumplir los supuestos clásicos. Sin embargo, las transformaciones son problemáticas: i) a menudo fallan en conseguir la normalidad y homocedasticidad, ii) no se ocupan de los outliers, iii) pueden reducir la potencia, iv) dificultan la interpretación de los resultados ya que los hallazgos se basan en la transformación, no en los datos originales. Recomendamos utilizar los métodos robustos en lugar de utilizar los métodos clásicos con datos transformados.

4. Utilización errónea de las pruebas no-paramétricas clásicas. Estas pruebas no son robustas ante la hetorocedasticidad, y solo son útiles para análisis simples (a no ser que se incluyan técnicas de remuestreo o bootstrap).

5. Conceptos erróneos acerca de la disponibilidad los métodos modernos robustos. Como no están disponibles de manera sencilla en los softwares más comerciales (SPSS, SAS, etc.) no los uso. ¡Error! Ya existen complementos en estos programas y además están disponibles en softwares gratuitos y avanzados como R.

6. Argumento erróneo sobre que los métodos modernos descartan información valiosa. Vale, entiendo que sea contraintuitivo que las pruebas más precisas sean aquellas que eliminan información (outliers). Por ello hay que ser cuidadosos en evaluar primero a qué se debe la presencia de casos atípicos, pero si su presencia no se explica por otras variables no consideradas, tiene sentido aplicar técnicas robustas para disminuir su influencia en nuestros resultados.

3 posibles soluciones

En muchas ocasiones no se cumplen los supuestos de la estadística clásica (normalidad y homocedasticidad) y por ende, las técnicas paramétricas no nos son útiles. En estos casos tenemos 3 posibles soluciones:

  • la transformación de los datos, de tal manera de que sigan una distribución normal y/o homocedástica.
  • Esta opción no siempre es útil ya que, por ejemplo, la nueva variable transformada puede no ser sencilla de interpretar; además, no solucionan los problemas de outliers, pueden reducir la potencia estadística, etc..
  • utilizar pruebas no paramétricas
  • Esta es una buena alternativa ya que las pruebas no paramétricas no se basan en ninguna suposición en cuanto la distribución de los datos (normalidad; pero sí sigue asumiendo homocedasticidad).
  • utilizar pruebas robustas.
  • Son similares a las paramétricas pero resistentes a la presencia de datos extremos, y son estables respecto a pequeñas desviaciones del modelo paramédico asumido (desviaciones de la normalidad y homocedasticidad).

¿Qué son los métodos robustos?

Los métodos estadísticos robustos son técnicas modernas que hacen frente a estos problemas. Son capaces de disminuir la tasa de error tipo I y también mejorar la potencia de la prueba cuando los datos no son normales ni homogéneos. Además, son sencillos y se encuentran disponibles en softwares gratuitos como R.

Razones para utilizar pruebas robustas

  • Son estables respecto a pequeñas desviaciones del modelo paramétrico asumido (normalidad y homocedasticidad). A diferencia de los procedimientos no paramétricos, los procedimientos estadísticos robustos no tratan de comportarse necesariamente bien para una amplia clase de modelos, pero son de alguna manera óptimos en un entorno de cierta distribución de probabilidad, por ejemplo, normal.
  • Solucionan los problemas de influencia de los outliers.
  • Son más potentes que las pruebas paramétricas y no paramétricas cuando los datos no son normales y/o no son homocedásticos.

¿Por qué se utilizan poco los métodos robustos?

Principalmente porque no los conocen. En parte porque no aparecen en los libros de texto clásicos y en parte porque la actualización curricular en métodos estadísticos es pobre.

La mayoría de los investigadores no son conscientes de las serias limitaciones de los métodos clásicos, no saben cómo comprobar los supuestos de la estadística clásica y/o no están familiarizados con las alternativas modernas.

La mayoría de los investigadores no son conscientes de las serias limitaciones de los métodos clásicosno saben cómo comprobar sus supuestos y/o no están familiarizados con alternativas modernas como los métodos robustos.

Poco que perder y mucho que ganar

Los métodos robustos modernos son diseñados para obtener un buen desempeño cuando los supuestos clásicos se cumplen y también cuando se incumplen. Por lo tanto, hay poco que perder y mucho que ganar a la hora de utilizar estas técnicas en lugar de las clásicas.

Los métodos robustos modernos son diseñados para obtener un buen desempeño cuando los supuestos clásicos se cumplen y también cuando se incumplen.

Y ahora te toca actuar a ti, ¿cómo vas a realizar tus próximos análisis de datos?

Este texto es una adaptación del artículo:Erceg-Hurn, D. M., & Mirosevich, V. M. (2008). Modern robust statistical methods: an easy way to maximize the accuracy and power of your research. American Psychologist, 63(7), 591.

4 comentarios

¹ Todos los campos son obligatorios.
² Tu correo electrónico no será publicado.

  • En realidad es mejor abandonar el uso de p, existen alternativas [[https://www.tandfonline.com/doi/full/10.1080/00031305.2016.1154108]]

    Responder

    Daniel 20 de enero de 2022, 12:58

    • Gracias Daniel por tu comentario! Bueno, hay una gran discusión al respecto, yo creo que no hay que abusar de ellos pero no es necesario abandonarlos. Te invito a leer este artículo de Daniel Lakens del 2021 https://journals.sagepub.com/doi/10.1177/1745691620958012, dice «la mejor alternativa al p-valor es utilizarlo correctamente».
      Saludos

      Responder

      Rosana Ferrero 20 de enero de 2022, 17:35

  • Hola:
    Muy buen resumen/extracción de una reflexión que hace muchísima falta en investigación. He percibido una especie de obsesión con las pruebas paramétricas (más que con las clásicas) y con ciertos paquetes estadísticos de meter datos y sacar resultados como si fuesen churros (paquetes carísimos algunos, será que tienen caché) muy venerados (paquetes y/o cierto tipo de tests «clásicos») por no pocos asesores de universidades o incluso de unidades de investigación, que cuando reciben una tesis o TFG o TFM critican el no haber usado pruebas paramétricas o el SPSS, sin preguntar ni tan siquiera por los supuestos o plantear alternativas. ¿Tienes algún post en el que saques a colación algo más sobre estas pruebas robustas? Lástima que en lo que respecta a R tenga pendiente un curso que quise hacer hace unos años. Gracias por el artículo.

    Responder

    ROSA ANA DULANTO BANDA 30 de junio de 2022, 21:30

Te llamamos

Introduce los siguientes datos y nos pondremos en contacto contigo para atender tus dudas sin compromiso.

Te llamamos

Muchas gracias por solicitar información.
Te contactaremos lo antes posible.

Diseño web: Albin Soft.