Ioannidis ha dedicado su carrera a exponer los débiles cimientos de gran parte de la medicina moderna. Su artículo de 2005, “Why Most Published Research Findings Are False” (“Por qué la mayoría de los hallazgos de investigación publicados son falsos”), se convirtió en el más leído en la historia de PLOS Medicine y ayudó a encender un debate global sobre la reproducibilidad. Desde entonces ha advertido sobre cómo la medicina basada en la evidencia puede ser secuestrada por la influencia de la industria, cómo los sistemas de recompensas sesgados en la academia favorecen la cantidad sobre la calidad y cómo incluso las revisiones sistemáticas pueden reciclar datos defectuosos. Sus críticas se extienden a la psiquiatría, donde los ensayos financiados por farmacéuticas suelen inclinarse hacia resultados positivos, las guías son moldeadas por personas con intereses dentro del campo y los hallazgos en neurociencia son más frágiles de lo que parecen.

Es profesor titular en Stanford y cuenta con una amplia formación en medicina, epidemiología, salud poblacional y ciencias de datos. Tanto como es un defensor de la buena ciencia, Ioannidis también es amante de las artes y las humanidades. Es novelista, enseña poesía, ama la ópera y él mismo ha escrito libretos para cuatro óperas.

En esta entrevista, aborda el extenso sesgo que impregna la investigación científica, las prácticas problemáticas y presiones que permiten que la ciencia defectuosa prospere, y los problemas significativos con la investigación sobre antidepresivos. Al mismo tiempo, nos recuerda por qué la buena ciencia es un regalo para la humanidad y algo que debemos proteger por nuestro bienestar y dignidad.

La transcripción a continuación ha sido editada por extensión y claridad.

Entrevista a John Ioannidis

Ayurdhi Dhar (AD): Siempre dices que la ciencia es lo mejor que nos ha pasado, y tu trabajo ha sido hacer y proteger la buena ciencia. También tienes un amor igual por las artes y las humanidades. Me gustaría saber un poco sobre cómo llegaste a amar la ciencia y cómo te diste cuenta de que necesitaba protección.

John Ioannidis (JI): Creo que la ciencia es un esfuerzo humano muy vulnerable y sensible. Tuve experiencias tempranas con científicos, incluidos científicos en mi propia familia. Vi cómo trabajaban: lo difícil que es llevar a cabo una buena ciencia e investigación, cuántos obstáculos existen para hacer las cosas bien y cuántos cálculos son difíciles o defectuosos. Todo eso era intrigante, emocionante y, al mismo tiempo, esencial para intentar hacerlo mejor.

La ciencia no es perfecta. Es algo que está en una lucha continua por mejorar. Me atrajo muy pronto, aprendiendo de mis propios errores y luchas por hacer buena ciencia, viendo lo fácil que es estar sesgado y cometer errores.

AD: Probablemente te han preguntado sobre tu artículo de 2005 miles de veces, así que lo haré breve. Ese artículo ha sido visto más de 3 millones de veces. Cuéntanos un poco sobre lo que encontraste que te llevó a determinar que la mayoría de los hallazgos de investigación médica son falsos.

JI: Ese artículo intentó estimar la probabilidad de que un hallazgo de investigación que supera un cierto umbral de detección (típicamente un cierto nivel de significación estadística en la mayor parte de la investigación biomédica) refleje un hallazgo verdadero, en lugar de uno espurio. Intenta modelar diferentes características, empezando por qué tan bueno es el poder del estudio, los sesgos, y el hecho de que la ciencia es llevada a cabo por múltiples científicos con distintos objetivos.

Nos ayuda a calcular cuáles son las probabilidades de que una afirmación de un resultado significativo sea correcta, en diferentes circunstancias, en diferentes campos, en diferentes fases del desarrollo de una disciplina, y con diferentes factores, incluidos sesgos, presiones de patrocinadores, conflictos y otros poderes desestabilizadores que pueden operar alrededor de la ciencia.

En la mayoría de los contextos, resulta que lo que obtenemos es poco probable que sea correcto. La probabilidad de que no lo sea es mayor del 50%. Por supuesto, eso varía. Si tenemos un ensayo aleatorizado muy grande en fase avanzada y obtenemos un resultado significativo, la probabilidad de que sea correcto es mucho más del 50%. Pero en la gran mayoría de las iniciativas científicas, tanto en 2005 como en 2025, la probabilidad es menor del 50%, y en muchos casos, es mucho menor del 50%.

AD: Ese artículo se volvió realmente famoso. ¿Te enfrentaste a reacciones negativas por escribir algo que decía: “Atención, muchos de estos hallazgos de investigación médica podrían ser falsos”? Lo pregunto porque pienso en el trabajo de Carl Elliott sobre los que denuncian irregularidades en la medicina y cómo se les trata.

JI: Por supuesto, hubo reacciones, y eso es muy apropiado y científico. La ciencia depende de la retroalimentación crítica, del debate, del escepticismo saludable y organizado. Hubo una variedad de críticas, algunas muy superficiales y otras profundas, interesantes y constructivas. Creo que el trabajo en este campo ha evolucionado desde entonces y se ha vuelto más rico, profundo, interesante y quizás también más preciso.

Evité los ataques que pueden recibir los denunciantes de irregularidades cuando intentan revelar que un solo artículo o un solo científico es fraudulento. El artículo de 2005 no trataba de la manipulación o de los resultados fraudulentos de un único científico o un único artículo. Trataba del conjunto de la empresa científica, y paradójicamente, la gente está más dispuesta a escuchar que “millones de artículos pueden estar equivocados” en lugar de que “mi artículo está equivocado”. Cuando se vuelve personal, la gente tiende a reaccionar de manera muy negativa y emocional.

Cuando describes problemas a gran escala, la gente es más tolerante porque piensa: “Bueno, ¿no te estarás refiriendo a mi propio trabajo, verdad?”. En realidad, el artículo habla del trabajo de todos nosotros. No hace excepciones. Muestra que cualquiera, en muchas circunstancias diferentes, podría sucumbir a esos sesgos que configuran la literatura científica problemática.

AD: La conclusión general de tu trabajo sobre los sesgos parece mostrar que hay sesgo en cada paso, en cada nivel de la investigación. Tomemos mi disciplina, la Psicología. Tú escribiste que puede haber sesgo en la observación, y en Psicología eso suele ser cierto, ya que hay mucha subjetividad en qué se observa y cómo. Puede haber sesgo en la medición: tomamos cosas complejas como el duelo y las reducimos a números. Hay problemas con la clasificación: las clasificaciones del DSM están constantemente bajo escrutinio. Hay sesgo en el análisis: los investigadores ejecutan múltiples análisis hasta encontrar lo que quieren (“¡Ya tengo significación!”). Hay sesgo en la difusión de la investigación, un tema sobre el que ha escrito Erik Turner, particularmente en relación con los antidepresivos y el problema del sesgo de publicación.

Escribes que la neuroimagen y la ciencia cognitiva están especialmente plagadas de esto, y estoy de acuerdo. Cada dos días aparece un nuevo estudio que “encuentra” el TDAH en el cerebro, y la gente lo toma en serio, pensando que las imágenes cerebrales significan evidencia dura. ¿Podrías describir los sesgos específicamente presentes en la literatura de neurociencia cognitiva y psicología?

JI: Existen literalmente cientos de sesgos. Publiqué otro artículo con David Chavalarias sobre un catálogo de sesgos utilizando una extracción de información textual a partir de toda la base de datos PubMed. Por supuesto, eso ni siquiera fue un catálogo completo, porque algunos sesgos pueden no estar nombrados como “sesgo X”, pero encontramos varios cientos diferentes. Una parte significativa de esos sesgos fue identificada primero en las ciencias psicológicas o sociales y luego fue aplicada en otros campos, incluida la biomedicina.

La psicología y las ciencias cognitivas no son necesariamente peores que otros campos. No solo han contribuido a la teoría del sesgo, ya que muchos sesgos fueron descritos por primera vez allí, sino que también fueron uno de los primeros campos en reconocer la necesidad de autoexaminarse. Comenzaron a realizar verificaciones de reproducibilidad a gran escala, y típicamente cerca de dos tercios de los experimentos no pudieron reproducirse.

Los campos con mediciones muy confusas y cuestionables tienden a hacerlo peor que aquellos más rígidos y específicos. Los campos con más presión de los patrocinadores o de otros interesados que desean un resultado particular también lo hacen peor. A veces basta con el sesgo de lealtad, cuando alguien ha construido su carrera sobre una observación o publicaciones específicas, y la defiende a toda costa.

También está la cuestión de la multiplicidad. ¿Es un campo donde solo se pueden hacer pocas preguntas, o es un campo donde se pueden hacer millones de preguntas? ¿Cuánta transparencia hay y qué medidas se están tomando para abordarlo? La ciencia psicológica, en principio, puede estar en un punto intermedio comparada con otros campos. No es tan mala. No es perfecta.

Probablemente hay mucho sesgo de lealtad. Creencias y narrativas fuertes impregnan el campo, sobre las que la gente construye carreras y luego se aferra a ellas. Una cosa que quizá lo ponga en peor estado que otros campos es que los resultados y las mediciones pueden ser poco claras. Los estados mentales o psicológicos no son tan concretos como medir una proteína u otra entidad tangible.

Los estudios de neuroimagen son altamente complejos: cada pequeño vórtice y píxel puede contar, y hay tantos que intentas hacer inferencias a partir de ellos.

AD: Entonces, ¿qué campo está funcionando realmente mal en este sentido?

JI: Todos los campos. Probablemente la ciencia de la nutrición destacaría como muy deficiente en cuanto a estándares, métodos, transparencia, potencial de reproducibilidad y también en su disposición a corregirse, debido a: 1) lo difícil que es obtener resultados precisos, y 2) cuánto se hace para llegar ahí. Algunos campos pueden ser horribles, pero luego dar los pasos correctos y volverse fuertes.

La genética probablemente estaba entre los peores hace 20 años; casi nada correcto se publicaba en genética, excepto efectos monogenéticos muy fuertes. El campo dijo: “Ya basta. Hemos publicado 100.000 artículos que no llevan a ningún lado. Necesitamos prácticas de validación muy sólidas, mejores estadísticas, más transparencia y compartir datos”.

Entonces empezaron a obtener resultados reproducibles, pero de nuevo, puede que no sean útiles en la práctica. Esto aplica aún más para la salud mental y para los resultados y fenotipos psicológicos. La genética es increíblemente compleja. Incluso si algunas señales ahora son más reproducibles, no estoy seguro de que puedan usarse para cambiar resultados en pacientes o en personas que quieren modular sus comportamientos.

AD: Hace veinte años la genética estaba en problemas, y han avanzado tratando de mejorar. Por ejemplo, existían narrativas populares pero erróneas de que un solo gen causaba la esquizofrenia o el trastorno bipolar. Incluso ahora, esas narrativas persisten aunque sean falsas. Una vez que entran en el mundo, son difíciles de erradicar. Lo mismo con la depresión: en la cultura popular sigue viéndose como causada por la serotonina. No importa cuánto haya cambiado la cosa; en la práctica no ha cambiado nada.

Parece que cuando una narrativa es realmente simple, como “es tu biología, es solo un gen”, se difunde como pólvora. Pero las narrativas complejas nunca se vuelven masivas. No llegan a la portada de la revista TIME.

JI: Tienes toda la razón. Hay una ventaja competitiva para las narrativas simplificadas. La hipótesis de la serotonina es una teoría en gran medida desacreditada, pero persiste porque ofrece una explicación conveniente de qué está mal contigo y qué podemos hacer al respecto. Pero obviamente las cosas no funcionan de manera tan simple, especialmente para los fenotipos psicológicos y la salud mental.
Sin embargo, las narrativas simples tienen una ventaja competitiva para periodistas, autores de bestsellers, organizaciones y muchos interesados que quieren decir: “Sé lo que está mal en ti y tengo una solución fácil”. Para la salud mental, eso no es el caso, con muy, muy raras excepciones.

AD: ¿Puedes hablar de algún estudio o algo que recuerdes como uno de los ejemplos más flagrantes de sesgo?

JI: El estudio promedio que leo cada día. No quiero señalar a nadie porque ya lo hice en otro artículo. El sesgo del que hablábamos era un sesgo en un método que detecta sesgo. Estábamos listos para publicarlo, ya que miles de estudios lo habían hecho antes y habían exagerado lo que podían lograr con este método de detección de sesgo. El editor dijo: “Publicaremos el artículo. Pero dices que revisaste miles de estudios. Por favor, incluye un ejemplo de un único estudio que lo ejemplifique”.

No queríamos señalar a nadie, pero el editor insistió. Incluimos ese ejemplo, y unos meses después conocí al primer autor de ese estudio en particular. Obviamente, estaba enojado porque había sido señalado como el del estudio horrible, mientras que los otros decenas de miles de científicos que hicieron lo mismo no lo habían sido.

Me lo preguntan muchas veces: ¿Cuál es el peor estudio? No, simplemente hay millones de estudios. Es tentador decir: “Este es el más horrible”, y quizás quienes trabajan en el campo sientan aún más intensamente la ira y el dolor cuando encuentran un estudio pésimo. Pero deberíamos ir más allá, porque literalmente hay decenas de millones de estudios con problemas graves.

AD: Hay una rabia asociada al encontrarse con ciencia realmente defectuosa. Pero hay tantos de esos estudios. Si lo enfocamos como un problema sistémico, quizá pueda haber respuestas sistémicas al problema, distintas de las respuestas de rabia.

JI: Estoy muy a favor de respuestas sistémicas. Las respuestas de rabia tienen su valor en cuanto a sensibilizar a la gente y aumentar la conciencia. Pero pueden llevar a la mala conclusión de que los estafadores producen ciencia, de que la ciencia es una causa perdida o de que no debemos confiar en ella.

Los problemas van desde cuestiones comunes de las que los científicos no son conscientes y en donde caen por falta de conocimiento y preparación metodológica inadecuada, hasta el fraude completo. Hoy en día tenemos una producción masiva de artículos fraudulentos. En el pasado, crear un artículo fraudulento era una obra de arte: tomaba tiempo y esfuerzo. Ahora puedes tener IA generando literalmente millones de artículos fraudulentos en una noche.

AD: Cuando enseño sobre el sesgo y corrupción de la industria en mis clases, mis estudiantes a veces se sienten desanimados y preguntan: “¿Cómo distinguir entre buena y mala investigación? Parece que necesitaríamos una formación extensa en estadística”. Yo me quedo titubeando, así que quiero preguntarte: dado que consumimos tanta investigación médica, ¿Cuáles son algunas señales de alerta que la gente puede identificar?

JI: No hay una lista de verificación sencilla. Eso aplica tanto al ciudadano promedio, bombardeado de información, como al experto. Algunos aspectos probablemente aumenten o disminuyan la credibilidad de un trabajo.

Un estudio experimental, aleatorizado, tiene más probabilidades de arrojar resultados precisos que un estudio observacional. Los estudios grandes pueden ser más confiables que los pequeños, no porque un único estudio pequeño no pueda ser bueno, sino porque muchos estudios pequeños pueden ser defectuosos y desaparecer.

¿Quién financia el estudio? ¿Hay un posible conflicto? ¿El patrocinador quiere obtener un resultado específico? ¿Será la intervención estudiada un producto superventas con el que el patrocinador ganará miles de millones? Ahora bien, incluso si fuera así el resultado del estudio podría ser correcto, pero son casos en que hay que ejercer un mayor nivel de escepticismo.

¿Cuánta transparencia hay? ¿El estudio fue prerregistrado para que se supiera que estaba en marcha? ¿Se conocía con detalle cómo se iba a realizar, cuales fueron los desenlaces que se iban a estudiar, cual el diseño y los análisis? ¿Los investigadores siguieron lo que prometieron o se desviaron? ¿Qué tan concretos parecen los números? ¿Parecen surgir de muchos análisis, pero de los cuales solo se informaron unos pocos?

No es fácil. Para el ciudadano promedio y para el experto, es un problema significativo. ¿Hasta qué punto podemos enseñar a la gente a aprender más sobre esos métodos? Aquí reconozco mi sesgo: creo que deberíamos hacer un esfuerzo por enseñar más desde etapas tempranas. Dar más énfasis a la educación científica, porque pienso que es central para la civilización, el bienestar y el futuro humano.

AD: Esto nos lleva a la formación. Me horrorizó aprender en tus escritos que incluso expertos en un campo suelen recibir una formación inadecuada en estadística. Dijiste que los médicos tienen una formación rigurosa en medicina, pero a menudo muy pobre en investigación, y especialmente en estadística.

Has escrito repetidamente que hay una analfabetización estadística rampante entre investigadores. La significación estadística es un concepto básico de licenciatura, y ya hay debates sobre si siquiera deberíamos seguir tomándola en cuenta, dado que puede no ser clínicamente relevante. Hay llamados a elevar el valor p (NdeT: la significación estadística estándar para considerar relevante el resultado de un análisis), o incluso a acabar con este enfoque. Pero tú argumentaste que debemos conservarlo porque los científicos suelen equivocarse incluso con este método básico. Dado este panorama ¿cómo podemos incorporar métodos más avanzados?

JI: Es un gran desafío, y la estadística impregna la gran mayoría de la investigación hoy en día. En principio, eso es bueno.
La estadística es una ciencia madura. Tiene herramientas muy sólidas y puede mejorar la calidad del trabajo. Pero publicamos siete millones de artículos al año, y solo una pequeña minoría tiene a un estadístico o metodólogo experto en el equipo. Los demás dependen del conocimiento estadístico de los autores, y muy a menudo ese conocimiento es rudimentario; no saben bien qué herramientas están usando.
Cualquiera puede conseguir un software estadístico que ejecute análisis extremadamente sofisticados, y con la inteligencia artificial es aún más fácil realizar análisis que no solo son complicados sino a veces poco transparentes. Tenemos herramientas poderosas y mucha gente que no está entrenada para usarlas; es muy fácil usarlas mal.

Luego está la revisión por pares, que debería detectar errores, pero la mayoría de los revisores tampoco está entrenada en estos aspectos, así que gran parte de lo incorrecto probablemente pasará. La revisión pospublicación puede identificar algunos de estos problemas, pero también es limitada, y aun cuando se realiza, no impacta el artículo: la mayoría de las revistas rara vez retracta o corrige.

Necesitamos enseñar a los investigadores a ser más cuidadosos con la estadística. Por favor, no uses algo a menos que sepas cómo funciona, cuáles son sus supuestos, qué significa, cómo funciona y cómo falla.

Es muy tentador hacerlo, especialmente con los LLMs (Modelos de Lenguaje a Gran Escala). Un LLM puede generar análisis impresionantes para quienes tienen poca experiencia, y casi siempre estarán completamente equivocados porque la forma en que fueron solicitados no era apropiada. Lo he visto una y otra vez.

No debemos presionar a la gente para que publique artículos por razones que no tienen nada que ver con la ciencia y con ayudar a las personas, sino por cosas como “Necesito graduarme, por lo tanto debo publicar X artículos”, o peor aún, “Soy un residente médico cuidando pacientes, lo cual es una ocupación muy respetable, y al mismo tiempo debo publicar artículos para terminar mi residencia”. ¿Por qué? No hay absolutamente ninguna razón.

Forzamos a la gente a hacer cosas para las que no está preparada, y no deberíamos culparlos si las hacen mal.

AD: Una de las cosas que me llama la atención de tu trabajo es que incluso después de identificar y escribir tanto sobre todos estos problemas en la investigación, aún pareces optimista acerca de lo que la ciencia puede lograr. ¿De dónde viene ese optimismo?

JI: A menudo me siento frustrado, pero al mismo tiempo hay motivos para el optimismo. La ciencia ha ayudado a la humanidad a lo largo del tiempo. No ha sido un progreso lineal. Ha habido épocas oscuras y períodos de ilustración, períodos de estancamiento y, en otras ocasiones, hemos experimentado periodos de innovación. Algunos campos pueden estancarse, publicando miles de artículos que no aportan nada, mientras que otros pueden ser más innovadores.

Si pensamos en los cincuenta millones de personas que han contribuido a la publicación de trabajos científicos, se trata de una enorme contribución de talento, esfuerzo, tiempo, recursos y capacidad. Si pensamos en doscientos millones de artículos, aunque solo una pequeña parte de ellos sea fiable, se trata de un logro importante.

Podríamos hacer cosas para reducir los artículos que son malos, horribles e inútiles. Pero todavía se difunden muchos trabajos muy interesantes, muy valiosos, útiles, fiables, reproducibles y dignos de confianza.

El reto es cómo separar esos trabajos del resto. Tenemos algunas herramientas, pero es una lucha. Requiere tiempo y esfuerzo. Habrá algunos avances y algunos retrocesos, y de nuevo más avances. No puedo predecir lo que sucederá en el futuro. Quién sabe, tal vez la humanidad se extinga. Pero quiero mantener una perspectiva optimista como una posibilidad importante.

AD: Sé que además de la ciencia, también te apasionan las artes y las humanidades. ¿Te ayudan a mantener la esperanza?

JI: Los seres humanos son seres fascinantes, y es importante hacer todo lo posible para mantener la dignidad de la humanidad.

Tengo amigos que creen firmemente en la ciencia y la tecnología, y comparto su convicción. Pero creo que los seres humanos son seres multifacéticos y muy complejos, por lo que también necesitamos el arte, la filosofía, necesitamos muchas formas diferentes en las que los seres humanos puedan navegar por su experiencia en el mundo, lo que significa, lo que importa, lo que es importante, lo que puede marcar la diferencia para ellos, para los demás, para las personas que aman y para la comunidad en la que viven.

La ciencia es indispensable, pero no es lo único. Tenemos que fijarnos en todas las demás armas que tenemos y que nos pueden dar la oportunidad de pensar que los seres humanos valen la pena. Como especie, valemos la pena.

AD: Quiero llevar esta conversación a la salud mental y a los antidepresivos. Usted abordó directamente esta cuestión, escribiendo que, durante mucho tiempo, múltiples ensayos clínicos han demostrado que los antidepresivos son eficaces y seguros. Y entonces llegaron dos metaanálisis y reventaron esa burbuja.

Hoy en día, existe un debate amplio en torno a la retirada de los tratamientos con antidepresivos. Ahora sabemos que no es autolimitada, en el sentido de que desaparecerá para todo el mundo en seis semanas, sino que puede durar hasta un año o más. El NICE del Reino Unido cambió sus directrices sobre la retirada de los antidepresivos. Tuvimos una importante revisión general que desacreditó la teoría de la serotonina.

¿Cuáles fueron los problemas de esos primeros ensayos que habían obtenido resultados sorprendentes? Son medicamentos increíblemente populares, aunque he oído rumores de que la industria farmacéutica se está alejando de los psicofármacos.

JI: El problema es que la investigación sobre los antidepresivos, y esto también es válido para otros fármacos y otras intervenciones de salud mental, suele consistir en estudios pequeños de corta duración que estudian desenlaces que no son desenlaces duros. En su mayoría ofrecen los resultados del cambio en algunas escalas para algunos síntomas. Es posible que no reflejen resultados concretos como el suicidio, los intentos de suicidio, la pérdida del empleo, incidentes matrimoniales importantes o la violencia. Eso no es fácil de estudiar.

Para su estudio se emplean muestras de 100 personas a las que se sigue durante ocho semanas o un poco más. Se necesitan estudios a largo plazo con muestras muy grandes. Hay muchos metaanálisis de este tipo de estudios, y yo mismo he realizado algunos.

En promedio, los antidepresivos probablemente ofrecen ciertos beneficios. Es un beneficio muy sutil para la persona promedio. En el metaanálisis más amplio del que fui coautor, observamos una diferencia media estandarizada de aproximadamente 0,3, lo que supone un efecto relativamente pequeño y modesto.

Ahora bien, si se asume la presencia de otros sesgos, ese 0,3 se convierte en un 0,2 o un 0,15. Algunas personas pueden responder que la media no representa la experiencia individual. Muchas personas no obtendrán ningún beneficio, mientras que otras pueden responder mejor y experimentar una mejora significativa.

Las personas también pueden probar diferentes psicoterapias. Estas tienen el mismo tipo de efectos y los mismos problemas, porque también son estudios pequeños de corta duración y con sesgos de lealtad, del mismo modo que tenemos sesgos de patrocinio en los ensayos de medicamentos. Pero vale la pena intentarlo.

El problema es que estos medicamentos no solo los usan personas con síntomas graves. También los usan mucho personas con pocos o ningún síntoma. Claro, no hay ningún beneficio, solo daños.

Incluso con niveles bajos de efectos nocivos, que no creo que sean tan bajos, pero supongamos que lo son, si hay cientos de millones de personas que toman estos medicamentos, entonces hay que multiplicar eso, y el beneficio neto para la población en general es negativo. Estos medicamentos terminan causando más problemas de los que podrían ayudar a algunas personas.

Lo mismo se aplica a los síntomas de abstinencia. Algunas personas tendrán síntomas de abstinencia. Desgraciadamente, tanto en lo que respecta a los beneficios como a la abstinencia, no disponemos de marcadores que nos permitan predecir quién va a responder bien y quién no, o incluso quién va a sufrir daños.

Hemos empezado a obtener cierta información sobre los daños, pero no es suficiente. En cuanto a los beneficios, tenemos muy poca información. La gente simplemente comprueba cómo funciona, e incluso eso se complica por la subjetividad, incluidos numerosos efectos placebo y nocebo, así como la presión circunstancial y la experiencia individual.

Son medicamentos que han sido muy buenos para la industria, la cual ha ganado miles de millones de dólares. Incluso con un precio relativamente modesto, si hay cientos de millones de personas que los toman, se pueden obtener grandes beneficios.

Creo que esto significa que la literatura también se ve influida por la presión de los patrocinadores, lo que da lugar a la creación de expertos que los promocionan, y las organizaciones, reuniones y revistas se ven presionadas para publicar más material positivo sobre ellos.

Como usted dice, aunque ha habido numerosos beneficios para las empresas, tal vez se estén retirando porque ven que están llegando a un callejón sin salida. Es una buena noticia, porque necesitamos nuevos tratamientos, nuevos conceptos.

AD: Me gustaría dedicar un momento a hablar de los daños. Existe un famoso estudio, el Estudio 329, realizado por GlaxoSmithKline (entonces SmithKline Beecham), en el que se afirmaba que dos antidepresivos (la paroxetina y un tricíclico) eran eficaces y seguros para los adolescentes. Sin embargo, los resultados reales demostraron que ambos eran ineficaces y peligrosos. Provocaban ideas y actos suicidas.

Sé que ha escrito sobre cómo se minimiza la información sobre los daños y que se utiliza un lenguaje específico para este fin. Lo vi en el estudio 329: había frases como «La paroxetina fue bien tolerada», que es una frase muy vaga y una señal de alarma, como usted dice. Había una frase que decía que algunos adolescentes mostraban inestabilidad emocional en lugar de decir que eran propensos al suicidio.

¿Podría contarnos un poco sobre cómo se minimiza la información sobre los daños?

JI: Lo hemos documentado en diferentes disciplinas. No se trata solo de los antidepresivos, ni solo de la psiquiatría, sino que hemos observado que en casi todas las disciplinas médicas los daños se notifican de forma insuficiente, se subestiman y tampoco se comentan tanto como los beneficios.

En un artículo que publiqué en JAMA, calculé que el espacio dedicado a informar sobre los daños era menor que el dedicado a los nombres de los autores.

Creo que la situación ha mejorado un poco porque mucha gente ha destacado la importancia de ser más minucioso a la hora de documentar e informar sobre los daños. Sin embargo, sigue habiendo un desequilibrio significativo.

Los daños tienen que superar un alto umbral de resistencia para ser aceptados. Lo he experimentado con ensayos cuando estaba en los NIH. Incluso en ensayos que deberían ser independientes —los NIH no son una industria—, el fabricante industrial hacía todo lo posible por suprimir la información sobre los daños. Nosotros luchábamos diciendo: «No, esto está ocurriendo, está ahí». Ellos respondían: «No, no es tan importante, no pasa nada, observemos y no digamos nada».

Lo mismo ocurre con los antidepresivos. El estudio 329 es probablemente un ejemplo extremo, ya que el nuevo análisis arrojó una conclusión exactamente opuesta a la del análisis original. El análisis original sugería que estos antidepresivos son muy seguros y muy eficaces; el nuevo análisis demostró que no son eficaces y que no son seguros.

Fue una situación extrema que afectó al tratamiento de millones de personas, especialmente adolescentes. Los niños y adolescentes no son una población que deba exponerse a estos fármacos, a menos que se trate de una indicación muy, muy, muy especial, que sería una excepción poco frecuente, ya que tienen efectos nocivos.

Tenemos que mejorar en múltiples niveles: reforzar la supervisión de las agencias reguladoras, perfeccionar los requisitos que imponen las revistas para publicar un ensayo, mejorar los procesos de revisión que siguen los comités de ética para aceptar un ensayo para su publicación y, a continuación, garantizar que el ensayo se publique. Cuando la información no sea completa, solicitar la información restante. Se necesitará un trabajo estructural para garantizar que los patrocinadores no tengan un poder de veto para configurar el panorama de los daños y sus intervenciones. Creo que los patrocinadores deberían dejar de configurar la narrativa sobre los beneficios y los daños.

AD: Tienes esperanza y optimismo, y yo necesito un poco de eso. Cuando considero el alcance y la naturaleza sistémica del problema, pienso en casos como los de Joseph Biederman o incluso Faruk Abuzzahab, a quien en un momento dado le revocaron la licencia, pero más tarde la APA le concedió un premio por su trayectoria profesional. Cuando veo que se reprime, se margina y se aplasta a las personas que intentan hacer lo correcto, y que las instituciones premian a quienes han sido sorprendidos con las manos en la masa, me desanimo. Me alegra saber que tú no has perdido la esperanza.

JI: Muchas gracias por la oportunidad. Sí, no debemos perder la esperanza. Algunas personas malas llegarán muy alto, pero no por mucho tiempo.

John Ioannidis, doctor en medicina, doctor en ciencias, profesor de medicina y codirector del Centro de Innovación en Metainvestigación de Stanford.

Ayurdhi Dhar es entrevistadora para Mad in America y la fundadora de Mad in South Asia. También es profesora y escritora académica en la Universidad de West Georgia.

2/10/2025

Traducción: viento sur.

Compartir: