Como residente de cuarto año de oftalmología en la Facultad de Medicina de la Universidad Emory, Riley Lyons es responsable del triaje. Es decir, es quien hace una clasificación rápida de los pacientes que llegan, basándose en la atención que necesitan. Cuando llega un paciente con un dolor en los ojos, por ejemplo, Lyons debe evaluar inmediatamente su urgencia.

A menudo se encuentra con que los pacientes ya han “visitado” al “doctor Google”. En Internet, dice Lyons, es probable que encuentren que “muchas cosas terribles podrían estar pasándoles en base a los síntomas que tienen”.

Por eso, cuando dos colegas oftalmólogos en Emory se acercaron a Lyons y le propusieron evaluar la precisión del chatbot de inteligencia artificial (IA) ChatGPT para diagnosticar dolencias relacionadas con la vista, le llamó la atención conocer cuán eficiente es ChatGPT para un diagnóstico médico.

En junio de 2023, Lyons y sus colegas publicaron en medRxiv, una revista en línea no indexada, que ChatGPT podía compararse a los médicos humanos que revisaban los mismos síntomas, y su rendimiento era mucho mejor que el del comprobador de síntomas del popular sitio web de salud WebMD. 

Y, a pesar del conocido problema de “alucinación” con el que señalan a ChatGPT —su hábito de realizar ocasionalmente afirmaciones totalmente falsas—, el estudio de Emory señala que la versión más reciente de ChatGPT no hace ninguna afirmación “extremadamente inexacta” cuando le presentaron un conjunto estándar de dolencias en los ojos.

La relativa eficacia de ChatGPT, que debutó en noviembre de 2022, fue una sorpresa para Lyons y los otros coautores. El motor de inteligencia artificial “es sin duda una mejora con respecto a poner algo en la barra de búsqueda de Google y ver qué se encuentra”, dice el coautor Nieraj Jain, profesor del Centro Oftalmológico Emory especializado en cirugía y enfermedades de la retina.

➜ Otros contenidos de inteligencia artificial

Pero los resultados muestran también un reto al que se enfrenta el sector de salud a la hora de evaluar las promesas y los peligros de ChatGPT: la precisión de la información médica proporcionada por un chatbot puede suponer una mejora con respecto a Google, pero aún quedan muchos interrogantes. Especialmente cómo integrar esta nueva tecnología en los sistemas de salud con las mismas normas de seguridad que se aplican para los nuevos fármacos o dispositivos médicos.

La sintaxis fluida, el tono de autoridad y la destreza de la inteligencia artificial generativa (la que usa ChatGPT) han atraído a todos los sectores de la sociedad, y algunos comparan su impacto futuro con el de la propia Internet. En salud, las empresas trabajan febrilmente para implantar la IA generativa en ámbitos como la radiología y los historiales médicos.

Sin embargo, en lo que respecta a los chatbots para consumidores, sigue habiendo cautela, a pesar de que la tecnología ya está ampliamente disponible, y es mejor que muchas alternativas.

Muchos médicos creen que las herramientas médicas basadas en IA deberían someterse a un proceso de aprobación similar al de la Administración de Drogas y Alimentos (FDA) para los fármacos, pero para eso aún faltan años. No está claro cómo se aplicaría ese régimen a la IA de uso general como ChatGPT.

“No hay duda de que tenemos problemas de acceso a la atención de salud, y ya sea una buena idea o no desplegar ChatGPT para cubrir los agujeros o llenar las lagunas en el acceso, va a suceder y ya está sucediendo”, dice Jain. “Las personas ya han descubierto su utilidad. Así que tenemos que entender las posibles ventajas y los inconvenientes”.

El estudio de Emory no es el único que ratifica la relativa precisión de la nueva generación de chatbots de IA. Un informe publicado en Nature a principios de julio por un grupo dirigido por informáticos de Google afirma que las respuestas generadas por Med-PaLM, un chatbot de IA que la empresa construyó específicamente para uso médico, “se comparan favorablemente con las respuestas de los médicos”.

La IA también puede tener mejores modales. Otro estudio, publicado en abril por investigadores de la Universidad de California-San Diego (UCSD) y otras instituciones, señala incluso que los profesionales de salud calificaron las respuestas de ChatGPT como más empáticas que las de los médicos humanos.

De hecho, varias empresas se plantean cómo podrían utilizarse los chatbots para terapias de salud mental, y algunos inversores apuestan por que las personas sanas también podrían disfrutar chateando e incluso estrechando lazos con un “amigo” de IA. La empresa detrás de Replika, una de las más avanzadas de este género, comercializa su chatbot como “el compañero de IA que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado”.

“Necesitamos que los médicos empiecen a darse cuenta de que estas nuevas herramientas han llegado para quedarse y ofrecen nuevas capacidades tanto a médicos como a pacientes”, dice James Benoit, consultor en IA. Cuando era becario posdoctoral de enfermería en la Universidad de Alberta, en Canadá, publicó un estudio en el que dice que ChatGPT superaba significativamente a los comprobadores de síntomas en línea al evaluar un conjunto de escenarios médicos. “Son lo bastante precisos como para empezar a merecer cierta consideración”, añadió.

Aun así, incluso los investigadores que han demostrado la relativa fiabilidad de ChatGPT se muestran cautos a la hora de recomendar a los pacientes que confíen plenamente en el estado actual de la IA. Para muchos profesionales de la medicina, los chatbots de IA pueden traer problemas. Citan una serie de cuestiones relacionadas con la privacidad, la seguridad, la parcialidad, la responsabilidad, la transparencia y la ausencia actual de regulaciones.

La propuesta de que se debería adoptar la IA porque representa una mejora marginal con respecto al doctor Google es poco convincente, según estos críticos.

“Resulta un poco decepcionante que ese sea el nivel, ¿no es cierto?”, señaló Mason Marks, profesor y doctor especializado en derecho de salud de la Universidad Estatal de Florida. Recientemente escribió un artículo de opinión sobre chatbots de IA y privacidad en el Journal of the American Medical Association. “No sé hasta qué punto es útil decir: ‘Bueno, pongamos esta IA conversacional como un remiendo para compensar estos problemas sistémicos más profundos’”, le dijo a KFF Health News.

El mayor peligro, en su opinión, es la probabilidad de que los incentivos del mercado den lugar a interfases de IA diseñadas para dirigir a los pacientes hacia determinados medicamentos o servicios médicos. “Las empresas podrían querer imponer un producto concreto sobre otro”, sugirió Marks. “El potencial de explotación de las personas y la comercialización de los datos no tendría precedentes”.

OpenAI, la empresa que desarrolló ChatGPT, también pidió cautela.

“Los modelos de OpenAI no están afinados para proporcionar información médica”, dijo un vocero de la compañía. “Nunca se deberían utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento de afecciones médicas graves”.

John Ayers, epidemiólogo computacional que fue el autor principal del estudio de la UCSD, dijo que, al igual que con otras intervenciones médicas, la atención debe centrarse en los resultados para los pacientes.

“Si los reguladores dijeran que si quieres proporcionar servicios a los pacientes utilizando un chatbot, tienes que demostrar que los chatbots mejoran los resultados de los pacientes, entonces los ensayos controlados aleatorios se registrarían mañana para obtener una gran cantidad de resultados”, explicó Ayers, a quien le gustaría ver una actitud de urgencia por parte de los reguladores.

“Cien millones de personas tienen ChatGPT en su teléfono”, añadió Ayers, “y están haciendo preguntas ahora mismo. La gente va a usar chatbots con o sin nosotros”.

Por ahora, no parece que se vaya a someter a la IA a pruebas rigurosas de seguridad y eficacia. En mayo, Robert Califf, comisionado de la FDA, describió “la regulación de los grandes modelos lingüísticos como crítico para nuestro futuro”, pero más allá de recomendar que los reguladores fueran “ágiles” en su enfoque, ofreció pocos detalles.

Mientras tanto, la carrera continúa. 

En julio de 2023, The Wall Street Journal publicó que la Clínica Mayo se asociaba con Google para integrar el chatbot Med-PaLM 2 en su sistema. En junio, WebMD anunció que se asociaba con una startup de Pasadena, California, HIA Technologies Inc, para ofrecer “asistentes de salud digitales” interactivos. Y la actual integración de la IA tanto en Bing de Microsoft como en Google Search sugiere que el doctor Google ya va camino de ser sustituido por el doctor Chatbot.


Esta historia fue producida por KFF Health News, una redacción nacional enfocada en el tratamiento en profundidad de temas de salud, que es uno de los principales programas de KFF, la fuente independiente de investigación de políticas de salud, encuestas y periodismo. 

Cropped Favicon GK 2 150x150
Andrew Leonard
Periodista. Colaborador de KFF Health News.
Y tú ¿qué opinas sobre este contenido?
Los comentarios están habilitados para los miembros de GK.
Únete a la GK Membresía y recibe beneficios como comentar en los contenidos y navegar sin anuncios.
Si ya eres miembro inicia sesión haciendo click aquí.
VER MÁS CONTENIDO SIMILAR