Un nuevo estudio ofrece una primera visión del papel que podrían desempeñar los asistentes de IA en la medicina. Al comparar las respuestas escritas de los médicos con las de ChatGPT a preguntas sobre salud del mundo real descubrieron que la IA supera a los médicos en proporcionar asesoramiento empático y de alta calidad a las preguntas de los pacientes.
Un grupo de profesionales sanitarios licenciados prefirió las respuestas de ChatGPT el 79% de las veces, según los resultados, publicados en la revista ‘JAMA Internal Medicine’.
«Las oportunidades de mejorar la asistencia sanitaria con IA son enormes. La atención aumentada por IA es el futuro de la medicina», afirmó John W. Ayers, vicedirector de innovación en la División de Enfermedades Infecciosas y Salud Pública Global de la Facultad de Medicina de la UC San Diego (Estados Unidos).
En el nuevo estudio, el equipo de investigación, dirigido por Ayers, del Instituto Qualcomm de la Universidad de California en San Diego, se propuso responder a la pregunta de si puede ChatGPT responder con precisión a las preguntas que los pacientes envían a sus médicos.
En caso afirmativo, los modelos de IA podrían integrarse en los sistemas sanitarios para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes y aliviar la carga cada vez mayor que soportan los facultativos.
«ChatGPT podría ser capaz de aprobar un examen para obtener la licencia médica”, afirmó el coautor del estudio, el Dr. Davey Smith, médico-científico, codirector del Instituto de Investigación Clínica y Traslacional Altman de la UC San Diego y profesor de la Facultad de Medicina de la UC San Diego, agregando que sin embargo, “responder directamente a las preguntas de los pacientes con precisión y empatía es harina de otro costal».
«La pandemia de COVID-19 aceleró la adopción de la asistencia sanitaria virtual”, añadió el doctor Eric Leas, coautor del estudio, afiliado al Instituto Qualcomm y profesor adjunto de la Facultad de Salud Pública y Ciencias de la Longevidad Humana Herbert Wertheim de la UC San Diego.
“Aunque esto facilitó el acceso de los pacientes a la asistencia, los médicos se ven agobiados por un aluvión de mensajes electrónicos de pacientes en busca de consejo médico que han contribuido a niveles récord de agotamiento de los médicos», destacó.
Para obtener una muestra amplia y diversa de preguntas sanitarias y respuestas de médicos que no contuvieran información personal identificable, el equipo recurrió a las redes sociales, donde millones de pacientes publican preguntas médicas a las que responden los médicos: AskDocs de Reddit.
AskDocs es un subreddit con aproximadamente 452.000 miembros que publican preguntas médicas y profesionales sanitarios verificados envían respuestas. Aunque cualquiera puede responder a una pregunta, los moderadores verifican las credenciales de los profesionales sanitarios y las respuestas muestran el nivel de credenciales del encuestado. El resultado es un conjunto amplio y diverso de preguntas médicas de pacientes y las correspondientes respuestas de profesionales médicos autorizados.
Aunque algunos pueden preguntarse si los intercambios de preguntas y respuestas en las redes sociales son una prueba justa, los miembros del equipo señalaron que los intercambios reflejaban su experiencia clínica.
El equipo seleccionó al azar 195 intercambios de AskDocs en los que un médico verificado respondía a una pregunta pública. El equipo proporcionó la pregunta original a ChatGPT y le pidió que redactara una respuesta.
Un grupo de tres profesionales sanitarios licenciados evaluó cada pregunta y las respuestas correspondientes, sin saber si la respuesta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.
El panel de evaluadores profesionales sanitarios prefirió las respuestas de ChatGPT a las de los médicos en un 79% de las ocasiones.
«Los mensajes de ChatGPT respondían con información matizada y precisa que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas de los médicos», indicó Jessica Kelley, enfermera practicante de la empresa Human Longevity de San Diego y coautora del estudio.
Además, la calidad de las respuestas de ChatGPT fue significativamente superior a la de las respuestas de los médicos: las respuestas de calidad buena o muy buena fueron 3,6 veces superiores para ChatGPT que para los médicos (médicos 22,1% frente a ChatGPT 78,5%). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces superiores para ChatGPT que para los médicos (médicos 4,6% frente a ChatGPT 45,1%).
«Nunca imaginé decir esto, pero ChatGPT es una receta que me gustaría dar a mi bandeja de entrada. La herramienta transformará mi forma de atender a mis pacientes», añadió el doctor Aaron Goodman, profesor clínico asociado de la Facultad de Medicina de la UC San Diego y coautor del estudio.
“Aunque nuestro estudio enfrentó a ChatGPT con los médicos, la solución definitiva no es echar a su médico por completo. En su lugar, un médico que aproveche ChatGPT es la respuesta para una atención mejor y más empática», precisó el doctor Adam Poliak, profesor asistente de Ciencias de la Computación en Bryn Mawr College y coautor del estudio.
«Nuestro estudio se encuentra entre los primeros en mostrar cómo los asistentes de IA pueden resolver potencialmente los problemas de prestación de atención médica del mundo real. Estos resultados sugieren que herramientas como ChatGPT pueden redactar eficientemente consejos médicos personalizados de alta calidad para su revisión por parte de los clínicos, y estamos comenzando ese proceso en UCSD Health», destacó el doctor Christopher Longhurst, Director Médico y Director Digital de UC San Diego Health.
El doctor Mike Hogarth, médico-bioinformático, codirector del Instituto Altman de Investigación Clínica y Traslacional de la UC San Diego, profesor de la Facultad de Medicina de la UC San Diego y coautor del estudio, subrayó que «es importante que la integración de los asistentes de IA en la mensajería sanitaria se realice en el contexto de un ensayo controlado aleatorizado para juzgar cómo el uso de los asistentes de IA repercute en los resultados tanto para los médicos como para los pacientes».
Además de mejorar el flujo de trabajo, las inversiones en mensajería con asistentes de IA podrían repercutir en la salud de los pacientes y el rendimiento de los médicos.
El doctor Mark Dredze, catedrático asociado John C. Malone de Informática en Johns Hopkins y coautor del estudio, comentó que se podría utilizar estas tecnologías «para formar a los médicos en la comunicación centrada en el paciente, eliminar las disparidades sanitarias que sufren las poblaciones minoritarias que a menudo buscan asistencia sanitaria a través de la mensajería, crear nuevos sistemas de seguridad médica y ayudar a los médicos prestando una asistencia de mayor calidad y más eficiente».