Ratio: 5 / 5

Inicio activadoInicio activadoInicio activadoInicio activadoInicio activado
 

Cualquier investigador habrá escuchado hablar alguna vez de las técnicas paramétricas clásicas (la t de Student, el ANOVA, la regresión por mínimos cuadrados, etc.). Son el tipo de pruebas más utilizado aunque requieren que se cumplan ciertos supuestos (como el de normalidad y homogeneidad de varianza) para que realmente generen buenos resultados. 

Cuando los datos no cumplen con estos supuestos disminuye la capacidad de detectar efectos reales (afecta al p-valor, al tamaño del efecto y a los intervalo de confianza estimados). ¡Toda la interpretación de tus datos puede ser errónea!. Pero tenemos una solución, las técnicas robustas.

[message_box title="" type="error" close="yes|no"]¡Toda la interpretación de tus datos puede ser errónea! .  Cuando los datos no cumplen con los supuestos de la estadística clásica   disminuye la capacidad de detectar efectos reales.[/message_box]

Los problemas de los métodos clásicos

Revisemos los principales problemas de los métodos paramétricos clásicos para entender su importancia.

[list type="disc"]
[list_item]I. Los datos reales suelen ser multimodales, asimétricos y con largas colas en su distribución de valores, por lo que raramente son normales.[/list_item]
[list_item]II. La igualdad de varianza poblacional (i.e. homogeneidad de varianza u homocedasticidad) suele no cumplirse, debido a la naturaleza de los diseños experimentales y de las muestras.[/list_item]

[list_item]III. Variabilidad inherente a los datos. Los grupos definidos por un factor pre-existente pueden tener varianzas diferentes. Por ejemplo, la respuesta a un test cognitivo es más variable en personas mayores que en los jóvenes. También puede ocurrir que una variable experimental cause diferencias en la variabilidad entre grupos. Por ejemplo, la respuesta de los sujetos ante un nuevo fármaco pueden generar gran variabilidad en el grupo experimental, mientras que el grupo control tendrá una respuesta bastante homogénea; aún cuando en el pre-test los grupos fueran homogéneos en su respuesta.[/list_item]
[/list]

    

El incumplimiento de la normalidad y homogeneidad de varianza puede tener gran influencia en los resultados de las pruebas paramétricas clásicas, en particular en las probabilidades de error tipo I y tipo II.

  • El error tipo I ocurre cuando falsamente se rechaza la hipótesis nula (i.e. concluimos que existe un efecto cuando realmente no ocurre). El nivel de confianza (1-alfa) es la probabilidad de no cometer el error tipo I.

  • El error tipo II ocurre cuando la hipótesis nula no es rechazada aún cuando a pesar de que es falsa (i.e. concluimos falsamente que no existe efecto). La potencia (1-beta) de una prueba es la probabilidad de que el error tipo II no ocurra.

En muchas ocasiones no se cumplen los supuestos de la estadística clásica (normalidad y homocedasticidad) y por ende, las técnicas paramétricas no nos son útiles. En estos casos tenemos 3 posibles soluciones:

  • la transformación de los datos, de tal manera de que sigan una distribución normal y/o homocedástica.
  • utilizar pruebas no paramétricas o 
  • utilizar pruebas robustas.

 

La primera opción no siempre es útil ya que, por ejemplo, la nueva variable transformada puede no ser sencilla de interpretar; además, no solucionan los problemas de outliers, pueden reducir la potencia estadística, etc.. 

La segunda opción es una buena alternativa ya que las pruebas no paramétricas no se basan en ninguna suposición en cuanto la distribucón de los datos (normalidad; pero sí sigue asumiendo homocedasticidad). 

La tercera opción contempla las pruebas robustas, que son similares a las paramétricas pero resistentes a la presencia de datos extremos, y son estables respecto a pequeñas desviaciones del modelo paramétrico asumido (desviaciones de la normalidad y homocedásticidad).

 

¿Qué son los métodos robustos?

Los métodos estadísticos robustos son técnicas modernas que hacen frente a estos problemas. Son capaces de disminuir la tasa de error tipo I y también mejorar la potencia de la prueba cuando los datos no son normales ni homogéneos. Además, son sencillos y se encuentran disponibles en softwares gratuitos como R. 

Razones para utilizar pruebas robustas

  • Son estables respecto a pequeñas desviaciones del modelo paramétrico asumido (normalidad y homocedasticidad). A diferencia de los procedimientos no paramétricos, los procedimientos estadísticos robustos no tratan de comportarse necesariamente bien para una amplia clase de modelos, pero son de alguna manera óptimos en un entorno de cierta distribución de probabilidad, por ejemplo, normal.

  • Solucionan los problemas de influencia de los outliers.

  • Son más potentes que las pruebas paramétricas y no paramétricas cuando los datos no son normales y/o no son homocedásticos.

 

¿Por qué se utilizan poco los métodos robustos?

Principalmente porque no los conocen. En parte porque no aparecen en los libros de texto clásicos y en parte porque la actualización curricular en métodos estadísticos es pobre.

La mayoría de los investigadores no son conscientes de las serias limitaciones de los métodos clásicos, no saben cómo comprobar los supuestos de la estadística clásica y/o no están familiarizados con las alternativas modernas.

 

[message_box title="" type="error" close="yes|no"]

La mayoría de los investigadores no son conscientes de las serias limitaciones de los métodos clásicosno saben cómo comprobar sus supuestos y/o no están familiarizados con alternativas modernas como los métodos robustos.

[/message_box]

  

Estos son los 6 errores más comunes que cometen los investigadores al no utilizar técnicas robustas:

1. Falta de corroboración de los supuestos clásico. Por olvido o por desconocimiento. Además, softwares como el SPSS no son muy útiles para ello. Por ejemplo, cuando los tamaños muestrales son pequeños, el test de Levene para la homogeneidad de varianza, puede dar resultados engañosos pero no es fácil encontrar alternativas en SPSS. También, las pruebas para corroborar los supuestos tienen sus propios supuestos. Las pruebas de normalidad asumen homocedasticidad, y las pruebas de homocedasticidad asumen normalidad.

No se debemos utilizar solamente pruebas estadísticas para corroborar los supuestos, tendremos que ayudarnos con gráficos para determinar qué ocurre con nuestros datos.

2. Argumento erróneo sobre la resistencia. Se suele decir que las pruebas paramétricas clásicas son resistentes a las variaciones en los supuestos de normalidad y homocedasticidad, negando así la necesidad de utilizar procedimientos alternativos. Sin embargo, esta afirmación se basa en estudios que solo analizan el impacto de pequeñas desviaciones de la normalidad y homocedasticidad, no en grandes desviaciones que son las más frecuentes en los datos reales. Incluso estos estudios suelen analizar dichos supuestos de manera aislada cuando en la práctica los dos supuestos se incumplen al mismo tiempo.

Las pruebas paramétricas clásicas son resistentes solo en un número limitado de circunstancias, no para la mayoría de ellas. Además, aún si un investigador insiste en que las pruebas clásicas son resistentes, debemos recordarle que las pruebas robustas son más potentes.

3. Incorrecta utilización de las transformaciones. Algunos investigadores suelen optar por transformar sus datos para cumplir los supuestos clásicos. Sin embargo, las transformaciones son problemáticas: i) a menudo fallan en conseguir la normalidad y homocedasticidad, ii) no se ocupan de los outliers, iii) pueden reducir la potencia, iv) dificultan la interpretación de los resultados ya que los hallazgos se basan en la transformación, no en los datos originales. Recomendamos utilizar los métodos robustos en lugar de utilizar los métodos clásicos con datos transformados.

4. Utilización errónea de las pruebas no-paramétricas clásicas. Estas pruebas no son robustas ante la hetorocedasticidad, y solo son útiles para análisis simples (a no ser que se incluyan técnicas de remuestreo o bootstrap). 

5. Conceptos erróneos acerca de la disponibilidad los métodos modernos robustos. Como no están disponibles de manera sencilla en los softwares más comerciales (SPSS, SAS, etc.) no los uso. ¡Error! Ya existen complementos en estos programas y además están disponibles en softwares gratuitos y avanzados como R. 

6. Argumento erróneo sobre que los métodos modernos descartan información valiosa. Vale, entiendo que sea contraintuitivo que las pruebas más precisas sean aquellas que eliminan información (outliers). Por ello hay que ser cuidadosos en evaluar primero a qué se debe la presencia de casos atípicos, pero si su presencia no se explica por otras variables no consideradas, tiene sentido aplicar técnicas robustas para disminuir su influencia en nuestros resultados.

 

Hay poco que perder y mucho que ganar.

Los métodos robustos modernos son diseñados para obtener un buen desempeño cuando los supuestos clásicos se cumplen y también cuando se incumplen. Por lo tanto, hay poco que perder y mucho que ganar a la hora de utilizar estas técnicas en lugar de las clásicas. 

 

[message_box title="" type="error" close="yes|no"]Los métodos robustos modernos son diseñados para obtener un buen desempeño cuando los supuestos clásicos se cumplen y también cuando se incumplen.[/message_box]

 

Y ahora te toca actuar a ti, ¿cómo vas a realizar tus próximos análisis de datos?

 

Este texto es una adaptación del artículo:
Erceg-Hurn, D. M., & Mirosevich, V. M. (2008). Modern robust statistical methods: an easy way to maximize the accuracy and power of your research. American Psychologist, 63(7), 591.

Comentarios (0)

Rated 0 out of 5 based on 0 votes
There are no comments posted here yet

Deja tus comentarios

Posting comment as a guest.
Archivos adjuntos (0 / 3)
Share Your Location
Escribe el texto que se muestra en la siguiente imagen. ¿No lo ves claro?