Soy el Dr. Iván Huespe, analista metodológico de la RELART. No soy traumatólogo, sino investigador clínico experto en metodología y estadística. Como metodólogo, mi función es conocer las herramientas para el desarrollo de la investigación científica y sus posibles aplicaciones. Hoy, las herramientas de inteligencia artificial más utilizadas son los Large Language Models (LLMs), y están cambiando la forma en que investigamos. En este sentido surge la pregunta: ¿podría prescindirse de los metodólogos para hacer investigación de calidad? En los próximos párrafos evaluaremos qué tan probable es que pierda mi trabajo en los próximos años, o incluso meses.
Primero lo primero, no vamos a abordar la historia completa de los LLMs, pero sí retrocederemos a noviembre de 2022, cuando se lanzó ChatGPT. En ese período inicial, se vislumbró un potencial tan grande que muchos auguraron que la IA se encargaría de generar preguntas de investigación (a través del análisis de la bibliografía), diseñar estudios, realizar análisis estadísticos e incluso redactar manuscritos científicos. En teoría, podían hacerlo todo, salvo recolectar datos.
Sin embargo, esa euforia inicial pronto dio paso al escepticismo: la IA exhibió un preocupante grado de “alucinaciones” –respuestas que aparentan y responde como si fueran correctas pero son totalmente falsas– que amenazaban la rigurosidad académica.
Otro problema mayor es que estos modelos funcionan como cajas negras: cuando muestran resultados de análisis estadísticos, no hay forma de verificar cómo se realizaron los cálculos, y en varias pruebas cometieron errores graves. De modo que vino una decepción significativa y se comentó que ChatGPT “daba respuestas como si estuviera bajo los efectos de LSD”1.
A pesar de ello, en ese mismo período desarrollamos un estudio para evaluar si ChatGPT podía escribir textos científicos, lo cual es muy diferente a “ser investigador”. La redacción científica requiere trasladar ideas y observaciones propias a palabras, a veces en un idioma ajeno, de manera clara y precisa. Este proceso es difícil: uno comprende perfectamente lo que hizo y encontró, pero llevarlo a un manuscrito puede requerir semanas. Lo interesante fue descubrir que ChatGPT lo hacía mejor que muchos investigadores.
En nuestro estudio, expertos en una temática redactaron la introducción de un manuscrito científico, y ChatGPT fue capaz de expresar esas ideas y conceptos de forma más clara, incluso que los propios investigadores2. Esto es esperable, los médicos no somos literatos: sabemos muchísimo de nuestra área, pero a veces carecemos de experiencia en redacción. Un manuscrito científico no es una obra de Shakespeare, su objetivo es reflejar de la manera más clara y sencilla posible la pregunta de investigación, la metodología empleada y los resultados obtenidos.
Con el tiempo, comprobamos que la IA no es útil en todos los aspectos, pero con experiencia y análisis adecuados son herramientas que nos ayudan enormemente en el proceso de investigación.
En nuestro equipo exploramos diversas aplicaciones y le encontramos utilidades muy importantes. La primera es la mejora de la gramática y la traducción al inglés, siendo capaz de escribir en ese idioma nuestras ideas de manera más clara que nosotros. Luego observamos que la IA puede transformar texto libre en texto estructurado, siempre que exista una validación humana (así, ya no es necesario que un residente o un estudiante lea miles de evoluciones clínicas para extraer scores de dolor o de funcionalidad en el seguimiento de cientos de pacientes). Más aún, agiliza la generación de bases de datos: a veces, su creación lleva cientos de líneas de código, y las versiones recientes de los LLMs aceleraron ese proceso.
Con todo, conocer la IA y sus usos nos permitió entender dónde no puede llegar. En primer lugar, no posee el conocimiento del contexto local del investigador: uno conoce a sus pacientes, las bases de datos disponibles, la idiosincrasia de los comités de ética y directivos locales; sabe cómo funciona el día a día para coordinar un estudio multicéntrico, con quién puede colaborar productivamente y con quien no. Las cuestiones personales (quién hará bien las cosas y quién no), el entendimiento del entorno y la red de contactos son esenciales para el desarrollo de estudios. Hoy, conocer ese ámbito local es clave para determinar qué pregunta se puede responder y la pregunta y objetivos van de la mano con el análisis estadístico que conviene realizar con cada equipo y estudio. Los LLMs pueden “alucinar” y cometer errores, con lo cual no pueden hacer el análisis estadístico, pero sí pueden generar códigos que luego ejecutamos en software estadístico especializado (Stata, R, etc.) y verificar allí su correcto funcionamiento.
En conclusión, aunque no sabemos cuándo ni cómo la IA reemplazará nuestro rol en el desarrollo metodológico de la investigación, lo cierto es que ya ha acelerado significativamente nuestra productividad como equipo, permitiendo adelantarnos a quienes aún no la utilizan.
Comprender con claridad qué puede y qué no puede hacer la IA nos ayuda a reforzar nuestras habilidades en las áreas donde los modelos no podrán sustituirnos y, al mismo tiempo, optimizar nuestra productividad.