Digamos que un nuevo estudio aleatorizado controlado encuentra que comer zanahorias no previene la miopía juvenil. ¿Vale la pena publicar este resultado? Y si los investigadores envían sus resultados a algunas revistas, ¿es probable que lo publiquen? Probablemente no porque la mayoría de los lectores no encuentren este resultado muy interesante. Después de todo, muchos alimentos comunes no previenen la miopía. Las manzanas no lo previenen, los huevos no lo previenen, entonces, ¿cuál es el problema si las zanahorias tampoco lo previenen?
Pero ahora supongamos que existe una creencia general entre las personas de que comer zanahorias puede prevenir la miopía. Esta creencia puede haber surgido de tradiciones, supersticiones o mitos. O puede basarse en algunos estudios anteriores que demostraron que comer zanahorias reduce la miopía en algunos niños. O puede deberse a alguna teoría popular que dice que la vitamina A previene la miopía y que las zanahorias son una buena fuente de vitamina A. En este caso, sería muy interesante que las personas conozcan esta nueva investigación porque desafía su creencia previa e incluso puede ayudar cambialo. Por lo tanto, definitivamente vale la pena publicar este resultado negativo.
Tomemos otro ejemplo. Supongamos que lleva a cabo un “estudio de asociación de todo el genoma” en busca de SNP (polimorfismo de un solo nucleótido) que están asociados con el cáncer de mama. Aunque esperaba encontrar algunos nuevos SNP en un cromosoma en particular que están asociados con el cáncer de mama, sus datos no encontraron ninguna asociación nueva. ¿Deberías publicar estos resultados negativos? Probablemente no.
Pero supongamos que sabe (a partir de estudios anteriores) que una mutación específica del gen BRCA1 está asociada con el cáncer de mama, y su estudio también analizó la asociación entre esta mutación BRCA1 y el cáncer de mama. Ahora bien, si descubrió que faltaba la relación esperada entre la mutación BRCA1 y el cáncer de mama en sus sujetos, ¿debería publicar este hallazgo? Seguro. De hecho, no publicarlo puede considerarse poco ético, especialmente si su patrocinador de investigación tiene un interés financiero en el diagnóstico y tratamiento de las mutaciones de BRCA1.
También podemos ver este problema de resultados negativos usando la técnica estadística conocida como inferencia bayesiana:
Inferencia bayesiana
En un momento dado, las personas (es decir, el público objetivo de su trabajo de investigación) creen varias hipótesis en diferentes grados o probabilidades. Estas probabilidades se llaman probabilidades previas (p) o simplemente priores. Las personas utilizan pruebas recientemente publicadas para actualizar sus antecedentes en ‘posteriores’. La fórmula precisa utilizada para esta ‘actualización bayesiana’ de prior se llama regla de Bayes, pero la mayoría de la gente hace una actualización aproximada de sus priores bastante intuitivamente.
Utilizando el concepto bayesiano, la idea básica se puede expresar de la siguiente manera:
Cualquier investigación (con resultado negativo o positivo) vale la pena publicar si es probable que cambie el Bayesiano anterior (creencia previa) de un número significativo de personas en un grado significativo.
Permítanme ilustrar este concepto con algunos ejemplos:
Supongamos que para un cierto grupo de personas, sus antecedentes para las siguientes hipótesis son las que se detallan a continuación:
* Comer manzanas previene la miopía juvenil p = .0001
* Una mutación BRCA1 particular causa cáncer de mama p = 0.25
* Comer grasas saturadas causa enfermedades del corazón p = 0.75
* Un mango que cae del árbol observa la ley de la gravedad p = 0.9999
Ahora los resultados negativos para las hipótesis donde p es muy cercano a cero no cambian mucho p (ya que la probabilidad posterior sería incluso más cercana a cero). De manera similar, los resultados positivos para la hipótesis donde p es muy cercano a uno no cambian mucho el anterior. Por lo tanto, un estudio que demuestre que las manzanas no previenen la miopía y un estudio que demuestre que la caída de los mangos observa la ley de la gravitación no es muy interesante de publicar.
Sin embargo, los resultados positivos para las hipótesis con p cercano a cero y los resultados negativos para las hipótesis con p cercano a uno son muy interesantes porque cambian mucho los antecedentes de las personas. Por lo tanto, un estudio que demuestre que las manzanas sí previenen la miopía, y un estudio que demuestre que la caída de los mangos no siempre cumple con la ley de la gravitación sería muy interesante.
Finalmente, para hipótesis con p en algún lugar entre 0 y 1, pero no cerca de ningún extremo, los resultados negativos y positivos son muy interesantes porque moverán la p significativamente más cerca de 0 y 1 respectivamente.
Es interesante observar que el grado previo de creencia de las personas es el factor crítico para decidir qué resultados (negativos o positivos) valen la pena publicar. Un ejemplo que conduce a este punto es la hipótesis de que “la vacunación causa autismo”. Antes del artículo de 1998 de Andrew Wakefield et al, que sugería un posible vínculo entre la vacuna triple vírica y el autismo, la mayoría de las personas con esta hipótesis era cercana a cero. Pero después del artículo de Wakefield, el previo de muchas personas se volvió bastante alto. Por lo tanto, se realizaron varios estudios para buscar una posible asociación entre la vacunación y el autismo. A pesar de que estos estudios arrojaron resultados negativos, la mayoría de ellos se publicaron porque era necesario reducir los niveles previos de personas, cerca de cero. Tenga en cuenta que antes de 1998, estos estudios negativos no se habrían encontrado lo suficientemente interesantes como para ser publicados. Lo que cambió en 1998 no fue la verdad sobre la hipótesis, sino la percepción o creencia de la gente sobre la hipótesis.
Hay otro escenario en la investigación farmacéutica donde la publicación de resultados negativos es especialmente importante, incluso imprescindible.
Supongamos que realizo una prueba donde tiro dos monedas similares A y B cien veces cada una. Es probable que obtenga el mismo número de cabezas con cualquier moneda. En la analogía del ensayo farmacológico, A representa un placebo, B representa un nuevo analgésico que se prueba, las cabezas corresponden al alivio del dolor, y las colas no corresponden a un alivio del dolor. Si repito esta prueba varias veces, de vez en cuando, puedo obtener significativamente más cabezas con la moneda B que con A. Ahora bien, si elijo publicar los resultados de solo aquellos ensayos donde obtuve significativamente más cabezas con B que con A , mientras ignoro los datos de todos los demás ensayos, puedo demostrar que el nuevo medicamento B es un analgésico efectivo en comparación con un placebo (aunque si se incluyeron datos de todos los ensayos, el medicamento no parece ser mejor que el placebo) .
Lo anterior es un ejemplo de recolección de pruebas estadísticas. Aquí, la no publicación de resultados negativos (o desfavorables) conduce a una conclusión estadística incorrecta. Si tal recolección de datos se hace intencionalmente para ayudar a la aprobación o venta del medicamento B, entonces no es nada menos que un fraude científico. Por otro lado, si el medicamento B no se comercializa (porque se considera ineficaz), entonces no es necesario publicar resultados negativos de los ensayos con medicamentos. Este tema se analiza con más detalle en el libro Bad Pharma de Ben Goldacre.