Hace unos años, dos investigadores seleccionaron los 50 ingredientes más utilizados en un libro de cocina y analizaron cuántos de ellos se habían asociado con un riesgo o beneficio frente al cáncer en diversos estudios publicados en revistas científicas.
La respuesta: 40 de 50, una lista que incluye sal, harina, perejil y azúcar. “¿Todo lo que comemos está relacionado con el cáncer?”, se preguntaron luego, irónicamente, en su artículo publicado en 2013.
Su pregunta se relaciona con un problema conocido pero persistente en el mundo de la investigación: muchos estudios utilizan muestras que son demasiado pequeñas para llegar a conclusiones generalizables.
Pero la presión sobre los investigadores, la competencia entre las revistas y el apetito insaciable de los medios por estudios que anuncien revoluciones o grandes descubrimientos hace que estos artículos continúen publicándose.
“La mayoría de los artículos publicados, incluso en revistas serias, son flojos”, dice a la AFP uno de los autores, John Ioannidis, profesor de medicina en Stanford, especializado en el estudio de estudios.
Este detractor de la mala investigación científica demostró en un artículo de 2005 “por qué la mayoría de los estudios publicados son falsos”.
Desde entonces, dice, solo se han hecho algunos progresos.
Algunas revistas requieren que los autores proporcionen sus datos brutos y publiquen previamente su protocolo. Esta transparencia evita que los investigadores tuerzan sus métodos y datos para encontrar un resultado, cualquiera que sea. También permite que otros verifiquen o “repliquen” el estudio.
Porque cuando se vuelven a hacer, los experimentos raramente conducen a los mismos resultados. Solo un tercio de los 100 estudios publicados en las tres revistas de psicología más prestigiosas pudieron ser reproducidos por investigadores, en un análisis publicado en 2015.
La medicina, la epidemiología, los ensayos clínicos de medicamentos y los estudios de nutrición no funcionan mucho mejor, insiste Ioannidis, especialmente durante las repeticiones.
“En las ciencias biomédicas y en otros lugares, los científicos no se forman lo suficiente en estadística y metodología”, agrega.
Demasiados estudios se centran en unos pocos individuos, lo que hace que sea imposible generalizar a una población total, ya que es poco probable que los participantes seleccionados sean representativos.
Café y vino tinto
“La dieta alimenticia es una de las áreas más lamentables”, continúa el profesor Ioannidis, y no solo por los conflictos de intereses con la industria agroalimentaria. Los investigadores a menudo buscan correlaciones en enormes bases de datos, sin hipótesis de partida.
Además, “medir una dieta es extremadamente difícil”, explica. ¿Cómo cuantificar exactamente qué come la gente?
Incluso cuando el método es bueno, con un estudio hecho de forma aleatoria donde los participantes son seleccionados al azar, la ejecución a veces deja que desear.
Un famoso estudio de 2013 sobre los beneficios de la dieta mediterránea sobre enfermedades del corazón tuvo que ser retirado en junio por la prestigiosa revista médica The New England Journal of Medicine, ya que los participantes no habían sido reclutados de forma aleatoria; los resultados han sido revisados a la baja.
Entonces, ¿qué escoger en la avalancha de estudios publicados todos los días?
Ioannidis recomienda hacer las siguientes preguntas: ¿Es un estudio aislado o refuerza trabajos existentes? ¿La muestra es pequeña o grande? ¿Es un experimento aleatorio? ¿Quién lo financió? ¿Los investigadores son transparentes?
Estas precauciones son fundamentales en medicina, donde los malos estudios contribuyen a la adopción de tratamientos que en el mejor de los casos son ineficaces y en el peor, perjudiciales.
En su libro “Ending Medical Reversal”, Vinayak Prasad y Adam Cifu encadenan ejemplos terribles de prácticas adoptadas sobre la base de estudios que fueron invalidados años más tarde, como la colocación de stents en una arteria del cerebro para reducir el riesgo de accidente cerebrovascular. Recién diez años después, un estudio riguroso mostró que la práctica en realidad aumentaba el riesgo de ACV.
La solución requiere el ajuste colectivo de los criterios conjuntos para los actores de la investigación, no sólo revistas: universidades, organismos de financiación públicos, laboratorios. Pero todas estas entidades están sujetas a la competencia.
“El sistema no incita a la gente a ir en la dirección correcta”, dice a la AFP Ivan Oransky, periodista cofundador de la página web Retraction Watch, que cubre los retiros de artículos científicos. “Queremos desarrollar una cultura en la que premiemos la transparencia”.
Los medios tienen también su cuota de responsabilidad, pues según él deben explicar mejor a sus lectores las incertidumbres inherentes a la investigación científica, y evitar el sensacionalismo.
“El problema es la interminable sucesión de estudios sobre café, chocolate y vino tinto”, se queja. “Tenemos que parar”.