¿Cuál es la mejor manera de realizar una evaluación crítica de un ensayo clínico aleatorizado y controlado?

La mejor manera es pretender que eres un detective y, usando tu mejor lógica e intuición como tu guía, ve si todo tiene sentido. ¿El periódico hizo la pregunta correcta? ¿Responde esa pregunta, o la respuesta descubierta es en realidad la respuesta a otra pregunta?

Y, sobre todo, ¡no asuma que las estadísticas en sí mismas son mágicas!

Habiendo dicho eso, bueno … hay errores Tipo I y II. Todos estos estudios implican probabilidades ( no certezas), incluida la posibilidad de que los resultados del estudio puedan, por casualidad, mostrar resultados falsos positivos y negativos, respectivamente.

Ambos tipos de error son muy sensibles al tamaño de la muestra, lo que significa la cantidad de dinero disponible para respaldar el estudio (¡cuidado con el comprador!).

Y cuando considera que el corte más común para la hipótesis nula es falsamente positivo es <0.05% … bueno, si lee más de 20 estudios (o, más correctamente, más de 20 resultados) puede haber varios resultados en uno estudio), la posibilidad de un error tipo I es sorprendentemente alta.

Vemos esto todo el tiempo en medicina cuando ordenamos análisis de sangre de rutina. Las normas para estos resultados de prueba generalmente se establecen en 2 SD en cualquier lado del promedio. Lo que significa que si prueba de 30 a 40 cosas en la sangre (algo que no es tan inusual), generalmente encuentra una prueba que es “anormal” (pero en realidad fuera del rango normal solo por casualidad).

La respuesta (estadística) a esto es la “corrección de Bonferroni”, aunque es raro ver esto discutido en publicaciones médicas.

La gente también ha propuesto errores tipo III y tipo IV. El tipo III se refiere a dar la respuesta correcta a la pregunta incorrecta, mientras que el tipo IV se relaciona (aproximadamente) con la respuesta incorrecta a la pregunta correcta.

Pero en el corazón de todo esto están las palabras que usamos. Al igual que la frase extremadamente común “significado” (como en “estadísticamente significativo”). Hace que parezca que el resultado es, de alguna manera, científicamente “significativo”, cuando en realidad todo lo que se refiere a él es un valor P de (generalmente) <0.5%. El valor "<0.5%" también da una falsa impresión de certeza, como si tuviéramos un 95% de certeza sobre algo. Un efecto podría ser minúsculo, pero tener un "P <0.5%".

Y luego siempre está el problema de qué método estadístico se elige para cualquier prueba dada. Los estudios han demostrado que la metodología “incorrecta” se usa con mayor frecuencia. Echa un vistazo a esta publicación, que causó gran revuelo en 2005:

Por qué la mayoría de las investigaciones publicadas son falsas.
http://www.plosmedicine.org/arti…

Para obtener más información sobre un tema complejo y de gran alcance, podría hacer algo peor que leer:

– para un tratamiento más dramático:
Mentiras, malditas mentiras y ciencias médicas ” en la revista The Atlantic
http://www.theatlantic.com/magaz…

– para un enfoque más objetivo:
“Las probabilidades son, está mal ” en Science News
http://www.sciencenews.org/view/…