Rosana Ferrero
Data Scientist
Juan L. López
Data Scientist
Cualquier investigador habrá escuchado hablar alguna vez de las técnicas paramétricas clásicas (la t de Student, el ANOVA, la regresión por mínimos cuadrados, etc.). Son el tipo de pruebas más utilizado aunque requieren que se cumplan ciertos supuestos (como el de normalidad y homogeneidad de varianza) para que realmente generen buenos resultados.
Cuando los datos no cumplen con estos supuestos disminuye la capacidad de detectar efectos reales (afecta al p-valor, al tamaño del efecto y a los intervalo de confianza estimados).
¡Toda la interpretación de tus datos puede ser errónea!.
Hoy te contamos cómo resolver estos problemas.
Máster de Estadística Aplicada con R Software 8ª edición 2019 (Reserva de plaza)
Revisemos los principales problemas de los métodos paramétricos clásicos para entender su importancia.
I. Los datos reales suelen ser multimodales, asimétricos y con largas colas en su distribución de valores, por lo que raramente son normales.
II. La igualdad de varianza poblacional (i.e. homogeneidad de varianza u homocedasticidad) suele no cumplirse, debido a la naturaleza de los diseños experimentales y de las muestras.
III. Variabilidad inherente a los datos. Los grupos definidos por un factor pre-existente pueden tener varianzas diferentes. Por ejemplo, la respuesta a un test cognitivo es más variable en personas mayores que en los jóvenes. También puede ocurrir que una variable experimental cause diferencias en la variabilidad entre grupos. Por ejemplo, la respuesta de los sujetos ante un nuevo fármaco pueden generar gran variabilidad en el grupo experimental, mientras que el grupo control tendrá una respuesta bastante homogénea; aún cuando en el pre-test los grupos fueran homogéneos en su respuesta.
El incumplimiento de la normalidad y homogeneidad de varianza puede tener gran influencia en los resultados de las pruebas paramétricas clásicas, en particular en las probabilidades de error tipo I y tipo II.
Estos son los 6 errores más comunes que cometen los investigadores al usar las pruebas de hipótesis clásicas:
1. Falta de corroboración de los supuestos clásicos. Por olvido o por desconocimiento. Además, softwares como el SPSS no son muy útiles para ello. Por ejemplo, cuando los tamaños muestrales son pequeños, el test de Levene para la homogeneidad de varianza, puede dar resultados engañosos pero no es fácil encontrar alternativas en SPSS. También, las pruebas para corroborar los supuestos tienen sus propios supuestos. Las pruebas de normalidad asumen homocedasticidad, y las pruebas de homocedasticidad asumen normalidad.
No se debemos utilizar solamente pruebas estadísticas para corroborar los supuestos, tendremos que ayudarnos con gráficos para determinar qué ocurre con nuestros datos.
2. Argumento erróneo sobre la resistencia. Se suele decir que las pruebas paramétricas clásicas son resistentes a las variaciones en los supuestos de normalidad y homocedasticidad, negando así la necesidad de utilizar procedimientos alternativos. Sin embargo, esta afirmación se basa en estudios que solo analizan el impacto de pequeñas desviaciones de la normalidad y homocedasticidad, no en grandes desviaciones que son las más frecuentes en los datos reales. Incluso estos estudios suelen analizar dichos supuestos de manera aislada cuando en la práctica los dos supuestos se incumplen al mismo tiempo.
Las pruebas paramétricas clásicas son resistentes solo en un número limitado de circunstancias, no para la mayoría de ellas. Además, aún si un investigador insiste en que las pruebas clásicas son resistentes, debemos recordarle que las pruebas robustas son más potentes.
3. Incorrecta utilización de las transformaciones. Algunos investigadores suelen optar por transformar sus datos para cumplir los supuestos clásicos. Sin embargo, las transformaciones son problemáticas: i) a menudo fallan en conseguir la normalidad y homocedasticidad, ii) no se ocupan de los outliers, iii) pueden reducir la potencia, iv) dificultan la interpretación de los resultados ya que los hallazgos se basan en la transformación, no en los datos originales. Recomendamos utilizar los métodos robustos en lugar de utilizar los métodos clásicos con datos transformados.
4. Utilización errónea de las pruebas no-paramétricas clásicas. Estas pruebas no son robustas ante la hetorocedasticidad, y solo son útiles para análisis simples (a no ser que se incluyan técnicas de remuestreo o bootstrap).
5. Conceptos erróneos acerca de la disponibilidad los métodos modernos robustos. Como no están disponibles de manera sencilla en los softwares más comerciales (SPSS, SAS, etc.) no los uso. ¡Error! Ya existen complementos en estos programas y además están disponibles en softwares gratuitos y avanzados como R.
6. Argumento erróneo sobre que los métodos modernos descartan información valiosa. Vale, entiendo que sea contraintuitivo que las pruebas más precisas sean aquellas que eliminan información (outliers). Por ello hay que ser cuidadosos en evaluar primero a qué se debe la presencia de casos atípicos, pero si su presencia no se explica por otras variables no consideradas, tiene sentido aplicar técnicas robustas para disminuir su influencia en nuestros resultados.
En muchas ocasiones no se cumplen los supuestos de la estadística clásica (normalidad y homocedasticidad) y por ende, las técnicas paramétricas no nos son útiles. En estos casos tenemos 3 posibles soluciones:
Los métodos estadísticos robustos son técnicas modernas que hacen frente a estos problemas. Son capaces de disminuir la tasa de error tipo I y también mejorar la potencia de la prueba cuando los datos no son normales ni homogéneos. Además, son sencillos y se encuentran disponibles en softwares gratuitos como R.
Razones para utilizar pruebas robustas
Principalmente porque no los conocen. En parte porque no aparecen en los libros de texto clásicos y en parte porque la actualización curricular en métodos estadísticos es pobre.
La mayoría de los investigadores no son conscientes de las serias limitaciones de los métodos clásicos, no saben cómo comprobar los supuestos de la estadística clásica y/o no están familiarizados con las alternativas modernas.
La mayoría de los investigadores no son conscientes de las serias limitaciones de los métodos clásicos, no saben cómo comprobar sus supuestos y/o no están familiarizados con alternativas modernas como los métodos robustos.
Los métodos robustos modernos son diseñados para obtener un buen desempeño cuando los supuestos clásicos se cumplen y también cuando se incumplen. Por lo tanto, hay poco que perder y mucho que ganar a la hora de utilizar estas técnicas en lugar de las clásicas.
Los métodos robustos modernos son diseñados para obtener un buen desempeño cuando los supuestos clásicos se cumplen y también cuando se incumplen.
Y ahora te toca actuar a ti, ¿cómo vas a realizar tus próximos análisis de datos?
Este texto es una adaptación del artículo: Erceg-Hurn, D. M., & Mirosevich, V. M. (2008). Modern robust statistical methods: an easy way to maximize the accuracy and power of your research. American Psychologist, 63(7), 591.
Buenas tardes, una consulta. Tengo un caso con observaciones en rendimientos de kg/ha, donde los tratamientos son las unidades de herbicida usado (5,10,15,20,25,30) y los bloques son el tipo de suelo que son 4. Cuando procedo a verificar si puedo usar un DBCA, el supuesto de normalidad de errores no me cumple. Es así que decido usar la prueba no paramétrica de Friedman, pero mis observaciones no son ordinales. Mi duda sería qué otro tipo de prueba me ayudaría analizar este caso.
Gracias de antemano.
Hola Giorgio,
depende de por qué las muestras no son normales, si es una desviación leve podrías usar pruebas paramétricas igualmente (son robustas a la falta de normalidad) si se debe a la presencia de outliers tal vez sería mejor pensar en pruebas robustas, si es porque la distribución es muy distinta a la normalidad o que tienes pocas observaciones podrías usas pruebas no paramétricas que no asumen una distribución.
Podrías usar la prueba de Friedman para datos continuos u ordinales. No obstante, recuerda que esta prueba sirve para comparar más de 3 muestras relacionadas y por lo que describes los tratamientos que tienes parecen ser muestras independientes.
Aquí tienes una descripción detallada de las pruebas de hipótesis:
https://www.maximaformacion.es/blog-dat/guia-para-encontrar-tu-prueba-estadistica/comment-page-8/
Saludos
Hola espero que me respondas porfavor, que pasa si una variable si cumple con normalidad y otra variable no cumple con la normalidad,(pienso que tal vez es por la cantidad de items del cuestionario para cada variable) y ya realize las pruebas paramétricas (anova y regresión), que me aconsejas que se hace en esos casos
Hola Karina,
el supuesto de normalidad lo tienes que evaluar para la variable respuesta por grupo o, en su lugar, sobre los residuos del modelo.
Si no se cumple el supuesto de normalidad debes, antes de tomar una decisión, encontrar el por qué: 1) a que la naturaleza de la variable no es normal (e.g. escala de likert que realmente son ordinales, o variables de conteo que son muy asimétricas, etc), 2) a que existen valores atípicos, 3) puede deberse a que tienes pocos datos, etc.. Según el caso cómo proceder: en el caso 1) utiliza pruebas no paramétricas, en el caso 2) utiliza pruebas robustas, etc.. No obstante, la desviación de la distribución normal no es demasiado pronunciada puedes usar pruebas paramétricas, ya que son «resistentes» al incumplimiento del supuesto de normalidad.
Saludos
Hola!
Entonces aunque no se cumplan los supuestos, se puede continuar con la prueba parametrica??
Hola Sonia! depende, depende de qué supuesto y cómo o por qué se incumple. Por ejemplo, el supuesto de normalidad no es demasiado estricto, es decir, puedes continuar con una prueba paramétrica si tus datos no cumplen con el supuesto de normalidad. Sin embargo, tienes que pensar por qué no se cumple el supuesto ya que por ejemplo, podría deberse a que has elegido mal la prueba. Imagina que estás intentando analizar una variable que está medida en escala de likert 1-3 con una prueba t de Student de comparación de medias, no sería correcto, deberías utilizar una prueba para variables ordinales.
En el post les comento otros pormenores, si tienes alguna duda puntual nos vuelves a escribir!
Saludos
hola por favor me puedes aclarar de que bibliografía afirmas que las pruebas no paramétricas no son una buena opción cuando no se cumple la homogeneidad de varianza.
Hola Andrea,
sí, aquí tienes un par de ejemplos de análisis de heterocedasticidad para la regresión no paramétrica: https://rss.onlinelibrary.wiley.com/doi/abs/10.1111/1467-9868.00149, o https://www.hindawi.com/journals/jam/2014/435925/
La estimación de la función de regresión y las inferencias estadísticas relacionadas en modelos no paramétricos generalmente se basan en la suposición de que el término de error es homoscedastico. Sin embargo, en muchos problemas del mundo real, rara vez sabemos a priori si esta suposición puede garantizarse. Por lo tanto, es necesario desarrollar un método para detectar la heterocedasticidad en los términos de error antes de embarcarnos en el ajuste del modelo y los problemas de inferencia.
Saludos
hola disculpa podrías adjuntar la bibliografía en la que te basas para asegurar que las pruebas no paramétricas no son robustas ante la hetorocedasticidad, he buscado en varios libros y no encuentro fundamento a esta afirmación, espero me puedas ayudar
También tienes varias referencias en manuales y libros. Por ejemplo aquí : http://www.biostathandbook.com/homoscedasticity.html. Dice «Las pruebas no paramétricas, como la prueba de Kruskal-Wallis en lugar de una anova unidireccional, no suponen normalidad, pero sí suponen que las formas de las distribuciones en diferentes grupos son las mismas. Esto significa que las pruebas no paramétricas no son una buena solución al problema de la heterocedasticidad.»
He comentado algunas alternativas como el uso de la corrección de Welch en técnicas paramétricas, pero si quieres leer más a fondo sobre ello puedes leer el capítulo 3 del libro Nonparametric Statistical Tests: A Computational Approach por Markus Neuhauser.
¡Saludos!
Hola Rossana, leí tu reporte. Muchas gracias. Yo observé que mis datos cumplen la normalidad pero no la homocedasticidad si aplico el test de Levene, pero si aplico el test de Barlett si cumplen con el requisito de homocedasticidad. Estoy midiendo por duplicado las temperaturas de inicio de gelatinización en 06 variedades de papas nativas. Es decir tengo 12 datos. Gracias. Lei al inicio que hay que tener cuidado con el test de Levene en muestras pequeñas. Espero me des una idea. Muchas gracias!!
Hola Karla,
existen algunas diferencias entre estas pruebas de homogeneidad de varianza. Podemos utilizar la prueba de igualdad de varianza de Levene, la de Bartlett (ambas sensible a desviaciones de la normalidad, aunque Levene es un poco mejor en esos casos), o la de Fligner (menos sensible a la falta de normalidad, ya que es una prueba no paramétricadica).
En este post te muestro cómo realizarlas: https://www.maximaformacion.es/blog-dat/comparacion-de-2-muestras-con-r/
En el caso de que tus datos no cumplan con el supuesto de homogeneidad de varianza podrías utilizar alguna corrección como la de Welch.
Saludos
Espero puedas ayudarme. Tengo 2 grupo (sanos e hipertensos), en ambos busco diagnosticar la enfermedad arterial periferica y tengo dos metodos, el obejtivo general expresa:Determinar el metodo ideal (Ecografia Doppler e Indice Tobillo Brazo) para diagnosticar la enfermedad Arterial Periferica en pacientes con hipertension arterial. Cual prueba puedo utilizar para determinar cual metodo es mejor?
Buenos días Dulce,
fíjate en este post que hemos creado para que aprendas a seleccionar la prueba de hipótesis que buscas: https://www.maximaformacion.es/blog-dat/guia-para-encontrar-tu-prueba-estadistica/
Si tu variable respuesta es la presión arterial y tu variable explicativa los 2 grupos, entonces podarais realizar una prueba t para muestras independientes (siempre que se cumplan los supuestos de la prueba, sino fíjate en las alternativas no paramétricas o robustas).
Saludos
Que sucede cuando mis datos si cumplen con la prueba de normalidad pero no con la prueba de Levene (homocedasticidad)
Hola André, depende.
En principio el supuesto de normalidad no es demasiado restrictivo, sí lo es el de homocedasticidad.
Sin embargo, siempre debes preguntarte por qué no se cumple el supuesto de normalidad, si es por la naturaleza de la variable (que es ordinal en lugar de escala entonces piensa en modelos no paramétricos; o si son datos de conteo tal vez necesitas modelos con otro tipo de distribución, Poisson, etc.) o si, por ejemplo, a la presencia de valores atípicos (outliers, entonces piensa qué hacer con ellos o recurrir a modelos robustos).
Saludos
por favor si pudiera aclararme lo siguiente:
1.- los supuestos del modelo de regresión lineal (normalidad, homocedasticidad linealidad independencia)
que es linealidad e independencia y comp se prueba en SPSS
2.- Para muestras pequeñas se utilizan pruebas NO parametricas
se considera m.pequeña < que 20, o < que 30, o < que 50 cual es el valor correcto y cual es la fuente cientifica o tecnica que lo sustenta
3.- que es normalidad marginal y bivariada, condición para utilizar el coeficiente de correlación de Pearson
mil gracias
Hola Alberto, gracias por escribirnos.
1. Sobre los supuestos del modelo de regresión lineal.
– Los modelos lineales asumen que un cambio en la variable explicativa resultará en un cambio constante (proporcional) en la variable respuesta. Por ejemplo, imaginemos que estamos interesados en la relación entre la potencia de un coche y su consumo de gasolina. Si ajustamos un modelo de regresión lineal estamos diciendo que un cambio en una unidad de potencia del coche tendrá el mismo efecto en el consumo de gasolina sea cual sea su valor de origen (lo mismo es un aumento de potencia de 100-101 que de 300-301).
El término «linealidad» se refiere a la combinación de parámetros (i.e. a la forma funcional del modelo), no a la forma de la relación. Es decir, un modelo lineal es aquel en el que la variable respuesta se describe por una combinación lineal de parámetros (pendientes e intercepto). Dicho de otro modo, no aparecen parámetros en los exponentes o ningún parámetro es multiplicado o dividido por otro parámetro. Se dice que los modelos de regresión lineal son lineales en los parámetros de la ecuación. No obstante, ten en cuenta que los modelos lineales pueden modelar la curvatura al incluir polinomios (e.g. con términos al cuadrado X2) y la linealización de funciones (e.g. logarítmicas o exponenciales).
– El supuesto de independencia se refiere a que las observaciones (o residuos) deben ser independientes unas de otras. Si los valores han sido tomados en el tiempo, las muestras más cercanas en el tiempo serán más similares entre sí respecto al resto de muestras -correlación temporal-; lo mismo ocurre en estudios espaciales.
No trabajamos con SPSS sino con R, pero puedes corroborar gráficamente el supuesto de linealidad traficando los residuos vs valores ajustados, y el supuesto de independencia bastaría con evaluar el diseño experimental que tienes (si son datos temporales o espaciales es de esperar que no se cumpla el supuesto).
2. El punto de corte es arbitrario, algunos utilizan el 30 por el tema del teorema central del límite. También tienes que tener en cuenta que la ventaja de las pruebas NO paramétricas es que no asumen una distribución en los datos, con lo cual puedes analizar variables ordinales con ellas.
3. Que una variable sea normal significa que tu variable sigue una distribución de probabilidad normal. Se llama distribucuón normal multivariante (e.g. bivariada) a la generalización de la distribución normal unidimensional (o marginal). El desarrollo teórico lo puedes leer en cualquier libro de texto o en wikipedia.
Saludos
Por favor si pudiera aclararme lo siguiente que tengo en apuntes de estadistica
1.- los supuestos del modelo de regresión lineal (normalidad, homocedasticidad linealidad independencia)
que es linealidad e independencia y como se comprueban en SPSS
2.- Muestra pequeña es < que 20; o < que 30; o < que 50, porque indican que para muestras pequeñas deben utilizarse pruebas No parametricas , cual es el valor correcto y cual es la fuente cientifica o tecnica que lo sustenta
3.- que es la normalidad marginal y bivariada, esta ultima necesaria para utilizar el c.de c.de Pearson.
mil gracias por su gentil atencion
Como ya expuse en este foro, al revisar los bancos de datos resultantes de 27 años de de diseño experimental, me encontré con muchos casos de falta de normalidad y de homogeneidad de varianza. Sin embargo, los ensayos se resolvieron en su día con métodos paramétricos. Realizar por aquel entonces un test de Shapiro-Wiljs y otro de Levene con una calculadora, llevaba una mañana de trabajo. No se podía resistir la tentación de aceptar que la distribución normal se llama así porque es la más habitual en la naturaleza. Y, que la varianza, por tratar con la variabilidad, se vuelve homogénea.
Pero, ¡ay!, no es así.
¿Todo cuanto se hizo hasta ahora está mal? No. Pero la probabilidad de que, en una experiencia concreta, los riesgos de error tipo I y tipo II fueran superiores a lo planificado es más elevada de lo que nos gustaría.
¿Cómo proceder de ahora en adelante?
Me convence la idea de los métodos robustos. Pero, cuidado, poniendo bien las cosas en su sitio.
Por más que me digan que para protegerse de los outliers hay que descartar el 10% de los valores más altos y el otro tanto de los más bajos, cuando el análisis químico de una muestra supera los 500 €, me niego a ello. Sólo lo haré cuando la magnitud de las diferencias con el resto de los demás valores, bien a ojo o tras realizar el Test de Grubbs, me diga que, efectivamente, se trata de observaciones anómalas. Y, me guardaré mucho de tirar esos resultados al cesto de los papeles. Irán a una carpeta de outliers, de la que se informará debidamente en la publicación a que haya lugar, esperando que con el tiempo y la colaboración de otros se reúna una población 1- épsilon de muestras A habituales y otra épsilon de muestras B outliers.
Salvo esa situación, me guardaré mucho de que el recorte del 10% de las muestras me obligue a eliminar nada. Reduciré ese recorte al 5, 1, 0.1, o a lo que haga falta para no tenga que desperdiciar nada.
El análisis de los datos lo iniciaré con el procedimiento GFD de Friedrich et al (2017), que no me exige normalidad, ni homogeneidad de varianza, ni recortar datos. Pero, !ay!. Sólo me permite completarlo en modelos de análisis de varianza con un máximo de dos factores cruzados o jerarquizados. Si hay tres factores, puedo calcular el valor de F y saber si hay alguna diferencia significativa, pero no puedo efectuar separación me medias. Me quedo a medio camino.
Los autores citados esperan llegar a ofrecer soluciones para análisis de más de dos factores, regresión, covarianza, modelos mixtos, etc. Pero, claro, con el tiempo. Y dinero, que ojalá no les falte.
Mientras tanto, están los modelos robustos del software WRS2 (r project). El recorte de las medias no es obligatorio.
Pero, tampoco podemos llevar a cabo todo lo que precisamos. El análisis de covarianza está limitado a un máximo de un factor con dos niveles y de una covariable.
¿Cuando dispondremos del equivalente al modelo lineal general de la estadística paramétrica, para poder ejecutar las combinaciones de factores y covariables que precisemos, sin precisar normalidad ni homocedasticidad? Ni recorte de datos, por supuesto.
Esperémoslo humildemente. Pero, no va a ser para mañana.
Mientras tanto, recomiendo:
– Usar el procedimiento GFD hasta donde se pueda llegar
– Completarlo con el WRS2 también hasta donde se pueda llegar
– Las problemas actualmente insolubles de efectos aleatorios y combinaciones de factores de efecto fijo * covariables tratar de solucionarlos traduciéndolos a inclusiones en el error o a un nuevo efecto fijo que sintetice lo que no podemos procesar por separado
– Y, ser humildes, como antes dije. Los profesionales de la estadística tienen su papel en el mundo científico. No debemos dejar de consultarles. Aunque a veces sus explicaciones nos resulten inintelegibles, sigamos siendo humildes y pidamos que nos lo aclaren, sin expresiones matemáticas. Y, aceptemos que la estadística no es Lourdes.
Me encantaría participar más en este foro y comentar problemas con todos vosotros.
Saludos cordiales.
Alejandro Argamentería
çepsikon
Tras dar muchas vueltas al peoblema de la falta
Muchas gracias por tu aporte, Alejandro.
Saludos
Hola, gracias por el blog.
He realizado los análisis estadísticos de un estudio cuasiexperimental con 400 niños de educación primaria (grupo control y experimental, con una medida pre y post en cada uno). Es decir, un modelo factorial 2×2 (tiempo * tratamiento).
Prácticamente en todas las variables no hay distribución normal, y en muchas tampoco se cumple homocedasticidad (previamente he quitado los outliers con el método «explorar» del SPSS, y he probado a hacer transformaciones pero no arreglan mucho y surgen nuevos problemas, como el de interpretación que comentas).
– ¿Tendrías alguna fuente bibliográfica relevante en ciencias sociales que yo pudiera citar en el estudio que estoy elaborando, que justifique que se puedan hacer anovas aunque no se cumplan los supuestos?
– Un compañero matemático me ha comentado que para conseguir robustez, en los casos en los que no se cumplan los supuestos, puedo presentar en mi estudio que he hecho la prueba paramétrica y la homóloga no paramétrica y que conseguido en ambos lo mismo, estos es, resultados no significativos en ambos, o resultados significativos en ambos. ¿Esto aportaría robustez? ¿cómo puedo justifcar documentalmente este procedimiento?
– ¿Cómo saber qué prueba robusta concreta (según el post) debo aplicar a mis datos? Desconozco totalmente el tema, y he leído sobre todo de los procedimientos clásicos.
Muchas gracias, de verdad.
Hola Alejandro,
El ANOVA es bastante robusto ante la falta de normalidad, salvo que estés trabajando con una variable que por naturaleza no sea normal, como una escala de likert. El tema de la homocedasticidad es más complejo, pero deberías primero preguntarte por qué se da, tal vez puedas solucionarlo con alguna transformación previa de los datos, por ejemplo, o en el caso más complicado podrías modelar específicamente la variabilidad de los datos mediante un modelo mixto. También ten cuidado con «quitar» los outliers, solo debes quitar datos cuando sepas que son errores, sino deberías tomar otras alternativas como optar por técnicas no paramétricas o robustas.
Algunas referencias que te pueden interesar:
https://www.sciencedirect.com/science/article/pii/S0169716180010097
http://www.psicothema.com/pdf/4434.pdf
https://www.researchgate.net/profile/Matthias_Ziegler/publication/232449663_Is_It_Really_Robust/links/0c960524d58cfa0644000000.pdf
https://www.frontiersin.org/articles/10.3389/fpsyg.2013.00370
En caso de que no se cumplan los supuestos y los análisis descriptivo y el contexto, indiquen que debes aplicar técnicas no paramétricas y/o robustas, simplemente puedes argumentar los beneficios de estas técnicas. Para métodos robustos utiliza referencias de Rand Wilcox, en el caso de las no paramétricas dependerá de qué técnica utilices, ve a sus propias referencias.
En este post puedes ver qué técnica robusta aplicar en cada caso: https://www.maximaformacion.es/blog-dat/guia-para-encontrar-tu-prueba-estadistica/
Saludos