Según Wikipedia sobre John Ioannidis

 

John P. A. Ioannidis (nacido el 21 de agosto de 1965 en la ciudad de Nueva York) es profesor de Medicina y de Investigación y Política de Salud en la Escuela de Medicina de la Universidad de Stanford y Profesor de Estadística en la Escuela de Humanidades y Ciencias de la Universidad de Stanford.

Es director del Centro de Investigación de la Prevención de Stanford y co-director, junto con Steven N. Goodman, del Centro de Innovación de Meta-Investigación de Stanford (METRICS). [1] [2] También es el editor en jefe de la European Journal of Clinical Investigation. [3] Fue presidente del Departamento de Higiene y Epidemiología de la Facultad de Medicina de la Universidad de Ioannina, así como profesor adjunto de la Facultad de Medicina de la Universidad de Tufts. [4] [5] Es mejor conocido por sus investigaciones y trabajos publicados sobre estudios científicos, en particular el documento de 2005 “Por qué la mayoría de los hallazgos de investigación publicados son falsos”. [6] Ioannidis es uno de los científicos más citados en toda la literatura científica, especialmente en los campos de la medicina clínica y las ciencias sociales, según Thomson Reuters ‘Highly Cited Researchers 2015. [7]

Nacido en la ciudad de Nueva York en 1965, Ioannidis se crió en Atenas, Grecia. [9] Fue valedictorian (mejor alumno) de su clase en el Athens College, se graduó en 1984 y ganó varios premios, incluido el Premio Nacional de la Sociedad Matemática Griega. [10] También se graduó en el rango más alto de su clase en la Escuela de Medicina de la Universidad de Atenas, luego asistió a la Universidad de Harvard para hacer su residencia médica en medicina interna. Tuvo una beca en la Universidad de Tufts para enfermedades infecciosas [11] y llegó a Stanford en 2010.

 

Cobertura de prensa 

El Atlántico escribió un extenso artículo sobre Ioannidis en 2010. [12]

The Economist escribió un artículo más corto en 2014 sobre la fundación, por Ioannidis y Steven Goodman, del Centro de Innovación de Meta-Investigación en Stanford. [13]

Fue perfilado en el BMJ en 2015 y descrito como “el flagelo de la ciencia descuidada”. [14]

 

Resultados de investigación 

El artículo de 2005 de Ioannidis “Por qué la mayoría de los hallazgos de investigación publicados son falsos” [8] ha sido el documento técnico más descargado de la revista PLoS Medicine. [15]

En otro artículo de 2005, Ioannidis analizó “49 de los hallazgos de investigación más reconocidos en medicina en los últimos 13 años”. El documento comparó los 45 estudios que afirmaron haber descubierto intervenciones efectivas con estudios posteriores con tamaños de muestra más grandes: se contradijeron 7 (16%) de los estudios, 7 (16%) tuvieron efectos más pequeños en el segundo estudio que en el primero , 20 (44%) se replicaron, y 11 (24%) permanecieron en gran medida sin respuesta. [16]

Ha realizado muchas otras evaluaciones empíricas influyentes que abordan la validación y el rendimiento de la replicación de diferentes tipos de estudios en diversos campos científicos, incluida la genética, [17] ensayos clínicos, [18] y neurociencia. [19] Su trabajo también tuvo como objetivo identificar soluciones sobre cómo optimizar las prácticas de investigación [20] y aumentar el rendimiento de los hallazgos científicos validados y útiles. [21]

También acuñó el término fenómeno de Proteus por la aparición de resultados extremadamente contradictorios en los primeros estudios realizados en la misma pregunta de investigación. También ha realizado varias contribuciones en el campo del metanálisis (la ciencia de combinar datos de varios estudios sobre la misma pregunta de investigación) y ha sido presidente de la Sociedad de Metodología de Síntesis de la Investigación.

Referencias

  1.  “John P. A. Ioannidis”Stanford School of Medicine CAP Profiles. Retrieved May 24,2014.
  2. ^ “Prevention Research Center”Stanford School of Medicine. Retrieved May 24, 2014.
  3. ^ “John Ioannidis”metrics.stanford.edu. Retrieved 2018-05-10.
  4. ^ “John P. A. Ioannidis”. Department of Hygiene and Epidemiology, University of Ioannina School of Medicine. Retrieved December 31, 2008.
  5. ^ Ioannidis, John P.A. “Curriculum Vitae” (PDF). Archived from the original (PDF) on July 21, 2011. Retrieved November 4, 2010.
  6. ^ Ioannidis, John P. A. (August 1, 2005). “Why Most Published Research Findings Are False”PLoS Medicine2 (8): e124. doi:10.1371/journal.pmed.0020124ISSN 1549-1277PMC 1182327PMID 16060722.
  7. ^ “Home | Highly Cited Researchers”Highly Cited Researchers. Retrieved September 17, 2015.
  8. Jump up to:a b Ioannidis, J. P. A. (2005). “Why Most Published Research Findings Are False”PLoS Medicine2 (8): e124. doi:10.1371/journal.pmed.0020124PMC 1182327PMID 16060722.
  9. ^ John Ioannidis Harvard School of Public Health
  10. ^ Short biosketch 2010 Archived 2011-07-21 at the Wayback Machine.
  11. ^ David H. Freedman (2010). Wrong: Why Experts Keep Failing UsLittle, Brown and CompanyISBN 0-316-02378-7Born in 1965 in the United States to parents who were both physicians, he was raised in Athens, where he showed unusual aptitude in mathematics and snagged Greece’s top student math prize. …
  12. ^ David H. Freedman (2010). “Lies, damned lies, and medical science”The Atlantic. Vol. 306 no. 4. pp. 76–84.
  13. ^ “Combating bad science: Metaphysicians”The Economist.
  14. ^ “John Ioannidis: Uncompromising gentle maniac”. BMJ: h4992. 2015. doi:10.1136/bmj.h4992ISSN 1756-1833.
  15. ^ Robert Lee Hotz (September 14, 2007). “Most Science Studies Appear to Be Tainted By Sloppy Analysis”Science Journal WSJ.com. Dow Jones & Company. Retrieved 2016-12-05.
  16. ^ Ioannidis, J. P. A. (2005). “Contradicted and Initially Stronger Effects in Highly Cited Clinical Research”. JAMA: The Journal of the American Medical Association294 (2): 218–228. doi:10.1001/jama.294.2.218PMID 16014596.
  17. ^ Ioannidis, John P. A.; Ntzani, Evangelia E.; Trikalinos, Thomas A.; Contopoulos-Ioannidis, Despina G. (November 1, 2001). “Replication validity of genetic association studies”Nature Genetics29 (3): 306–309. doi:10.1038/ng749ISSN 1061-4036PMID 11600885.
  18. ^ “REanalyses of randomized clinical trial data”JAMA312 (10): 1024–1032. September 10, 2014. doi:10.1001/jama.2014.9646ISSN 0098-7484.
  19. ^ Button, Katherine S.; Ioannidis, John P. A.; Mokrysz, Claire; Nosek, Brian A.; Flint, Jonathan; Robinson, Emma S. J.; Munafò, Marcus R. (May 1, 2013). “Power failure: why small sample size undermines the reliability of neuroscience”Nature Reviews Neuroscience14 (5): 365–376. doi:10.1038/nrn3475ISSN 1471-003XPMID 23571845.
  20. ^ Begley, C. Glenn; Ioannidis, John P. A. (January 2, 2015). “Reproducibility in science: improving the standard for basic and preclinical research”. Circulation Research116 (1): 116–126. doi:10.1161/CIRCRESAHA.114.303819ISSN 1524-4571PMID 25552691.
  21. ^ Ioannidis, John P. A. (October 21, 2014). “How to Make More Published Research True”PLoS Med11 (10): e1001747. doi:10.1371/journal.pmed.1001747PMC 4204808PMID 25334033.

 

 

 

Entrevista

Fuente: VOPX 2018 John Ioannidis has dedicated his life to cuantifying how science is broken

La investigación médica está en baja forma . El fraude, el sesgo, el descuido y la ineficiencia están en todas partes, y ahora tenemos estudios que cuantifican el tamaño del problema.

Sabemos que alrededor de $ 200 mil millones, o el equivalente al 85 por ciento del gasto mundial en investigación, se desperdician rutinariamente en estudios redundantes y mal diseñados. Sabemos que hasta el 30 por ciento de los artículos de investigación médica originales más influyentes, posteriormente resultan ser erróneos o exagerados. También sabemos que una gran cantidad de evidencia médica es contradictoria y poco confiable, como los estudios que pretenden demostrar que casi todos los alimentos que comemos causan o previenen el cáncer.

Lo que todo esto significa, dice el profesor de la Universidad de Stanford, el Dr. John Ioannidis, es que la mayoría de los hallazgos de investigación publicados son falsos.

Si la investigación médica es irremediablemente defectuosa, Ioannidis es el superhéroe preparado para salvarla. Durante las últimas dos décadas, el médico académico ha utilizado la meta-investigación, o investigación sobre la investigación, para documentar las formas en que la ciencia se aleja de la verdad por medio de sesgos, errores y fraude absoluto. (Participó en la mayoría de las investigaciones citadas anteriormente).

Dice que vive con el lema “Promover la excelencia en la ciencia”. Si tuviera un villano, sería la arquitectura de información rota de la medicina.

Incluso tiene una historia de origen mítico. Fue criado en Grecia, el hogar de Pitágoras y Euclides, por médicos e investigadores que le inculcaron el amor por las matemáticas. A los siete años, cuantificó su afecto por los miembros de la familia con un sistema de “números de amor”. (“Mi madre estaba recibiendo 1,024.42”, dijo. “Mi abuela, 173.73.”) A los 19 años, ganó el premio nacional de la Sociedad Matemática Griega. Se graduó en la parte superior de su clase de la Escuela de Medicina de la Universidad de Atenas con 25 años, y no pasó mucho tiempo antes de que The Atlantic lo llamara “uno de los científicos más influyentes del mundo”.
“Si alineamos nuestras recompensas para dar credibilidad a los buenos métodos, tal vez esta sea la manera de progresar

Ioannidis, quien ahora co-dirige el Meta-Research Innovation Center en Stanford, ha recibido gran parte de este reconocimiento por la aplicación de sus conocimientos matemáticos para medir cómo y dónde falla la ciencia. En su artículo seminal, “Por qué la mayoría de los hallazgos de investigación publicados son falsos”, desarrolló un modelo matemático para mostrar cuán defectuoso es el proceso de investigación. Los investigadores realizan experimentos mal diseñados y sesgados, que a menudo se centran en teorías sensacionales e improbables en lugar de aquellas que probablemente sean plausibles y, en última instancia, distorsionen la base de evidencia, y lo que creemos que sabemos que es cierto en campos como la atención médica y la medicina.

Cuando ese artículo se publicó por primera vez, en 2005, provocó controversia. Los científicos no querían aceptar el triste estado de cosas que Ioannidis estaba describiendo. Ahora, han pasado diez años y Vox se encontró con Ioannidis para hablar sobre lo que ha sucedido desde entonces: los problemas en la investigación actual, cómo protegerse contra la mala ciencia y las implicaciones de su trabajo para el movimiento de la “medicina basada en la evidencia”, que es el impulso para que los médicos comiencen a aplicar la mejor ciencia disponible a la práctica médica en lugar de simplemente seguir lo que aprendieron en las escuelas de medicina o las opiniones de las figuras de autoridad. También compartió su incursión en la escritura de literatura experimental, y cómo esta sostiene su creatividad como investigador.

El legado de “Por qué la mayoría de los hallazgos de investigación publicados son falsos”

Julia Belluz:  Hace diez años, usted publicó el documento “Por qué la mayoría de los hallazgos de investigación publicados son falsos”. Entonces causó una controversia, y desde entonces se ha convertido en el artículo de investigación más citado y descargado en la historia de la revista PLoS Medicine, donde se publicó. ¿Por qué cree que el artículo cobró vida propia?

John Ioannidis:  El título podría haber contribuido a su popularidad, no estoy seguro. Sin embargo, creo que el artículo ganó popularidad de una forma relativamente lentga  con el tiempo. No fue un gran éxito cuando apareció por primera vez. Algunas personas lo apreciaron y pensaron que era muy interesante. Pero de alguna manera, cobró impulso con el tiempo a medida que más colegas se dieran cuenta de que potencialmente había más que eso. Era un artículo en el que dsfruté mucho elaborándolo. Cuando lo estaba escribiendolo, estaba realmente entusiasmado, espero no estar afectado por  sesgo de recuerdo aquí. Había estado pensando en ese artículo durante bastante tiempo y algunas de las ideas que lo acompañaban me habían ocupado durante una década. Cuando escribí la primera versión completa, reuniendo estos pensamientos, estaba en una pequeña isla en Grecia llamada Sikinos. Recuerdo estar escribiendo, y sintiendo que las cosas estaban poniéndose en su sitio de alguna manera.

Incluso con respecto a los ensayos controlados aleatorios [considerados el estándar de oro de la evidencia en medicina y más allá] tenemos evidencia empírica sobre su modesta replicación. Tenemos datos que sugieren que solo la mitad de los ensayos registrados [en bases de datos públicas para que las personas sepan que se realizaron] se publican en revistas. Entre los publicados, solo se informan alrededor de la mitad de los resultados que los investigadores se proponen estudiar. Luego, la mitad o más de los resultados que se publican se interpretan de manera inapropiada, con un sesgo que favorece las ideas preconcebidas de las agendas de los patrocinadores. Si multiplicamos estos niveles de pérdida o distorsión, incluso para los ensayos aleatorios,  solo será creíble una fracción modesta de la evidencia .

 

Cómo solucionar los problemas en la investigación científica.

Julia Belluz: ¿Cómo protegernos contra la mala ciencia?

John Ioannidis: Necesitamos científicos para poder filtrar [malos] estudios muy específicamente. Necesitamos una mejor revisión por pares en múltiples niveles. Actualmente tenemos una revisión por pares realizada por un par de personas que reciben el documento y quizás pasen un par de horas en él. Por lo general, no pueden analizar los datos porque no están disponibles; bueno, incluso si lo estuvieran, no tendrían tiempo para hacerlo.Necesitamos encontrar maneras de mejorar el proceso de revisión por pares y pensar en nuevas formas de revisión por pares.

Recientemente se está haciendo mayor hincapié en tratar de tener una revisión posterior a la publicación. Una vez que se publica un documento, puede comentarlo, formular preguntas o inquietudes. Pero la mayoría de estos esfuerzos no cuentan con una estructura de incentivos que los ayude a despegar. Tampoco hay ningún incentivo para que los científicos u otras partes interesadas realicen una revisión exhaustiva y crítica de un estudio, intenten reproducirlo o realicen un sondeo sistemático y realicen un esfuerzo real en el nuevo análisis. Necesitamos encontrar maneras en que las personas sean recompensadas por este tipo de reproducibilidad o verificaciones de sesgo.

 

Julia Belluz: ¿Esto no requiere básicamente una reestructuración de todo el sistema de la ciencia?

John Ioannidis: Estas son preguntas abiertas, no tengo las respuestas. Actualmente tenemos una temporada donde los estudios son revisados. Algunos estudios se revisan a nivel de financiamiento, y la revisión puede no ser muy científica. Muchos se centran en las promesas de significación, y los científicos tienen que prometer demasiado. Hay una revisión en la etapa del manuscrito, que parece ser bastante subóptima. Entonces, si se piensa en dónde debemos intervenir, tal vez debería ser en el diseño y la selección de preguntas y diseños de estudio, y las formas en que deben abordarse estas preguntas de investigación, tal vez incluso guiar la investigación: promover la ciencia en equipo, grandes estudios de colaboración en lugar de investigadores únicas con estudios independientes: todo el camino hasta la revisión por pares posterior a la publicación.

Julia Belluz: Si te nombraran zar de la ciencia, ¿qué arreglarías primero?

John Ioannidis: No tomaría un enfoque punitivo con la investigación. La investigación es realmente maravillosa. Es lo mejor que le ha pasado a los seres humanos. Necesitamos investigación. Necesitamos ciencia. Necesitamos mejores métodos de hacer las cosas. La mayoría de las veces sabemos cuáles son estos métodos pero no los implementamos.

Estoy muy contento de aprender de mis colegas, de escuchar lo que tienen que decir, de intercambiar ideas con ellos. Quizás lo que necesitamos es cambiar el sistema de incentivos y recompensas de una manera que recompense los mejores métodos y prácticas. Actualmente premiamos las cosas equivocadas: las personas que envían propuestas de subvención y publican artículos que hacen afirmaciones extravagantes. De eso no trata la ciencia. Si alineamos nuestros incentivos y recompensas de manera que den credibilidad a los buenos métodos y la ciencia, tal vez esta sea la manera de progresar.

Seguir leyendo…

 

PARA SABER MÁS