¿ChatGPT más empática que un médico? Un experimento dice que por escrito sí
Redacción Ciencia, 28 abr (EFE).- Uno de los debates en torno a ChatGPT es su papel en la medicina. Ahora, un experimento con profesionales sanitarios ha constatado que esta inteligencia artificial supera a los médicos a la hora de proporcionar respuestas empáticas y de alta calidad a las preguntas por escrito de pacientes.
Aunque la inteligencia artificial (IA) no sustituirá al médico, el artículo de JAMA Internal Medicine sugiere que el trabajo conjunto de los profesionales con tecnologías como ChatGPT puede «revolucionar la medicina», señala la Universidad de California en San Diego, responsable del estudio.
Dirigido por John W. Ayers, el estudio comparó las respuestas escritas que médicos y ChatGPT dieron a preguntas de pacientes. Según los resultados, el grupo de profesionales que las evaluó prefirió las respuestas de la IA el 79% de las veces, y calificó estas como de mayor calidad y más empáticas.
El equipo se propuso averiguar si ChatGPT puede responder con precisión a las preguntas que los pacientes envían a sus médicos.
En caso afirmativo, dicen los investigadores, los modelos de IA podrían integrarse en los sistemas sanitarios para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes, sobre todo después de la pandemia de la covid-19 con la que se aceleró la asistencia virtual, y aliviar así la carga cada vez mayor que soportan los facultativos.
Para obtener una muestra amplia y diversa de preguntas y respuestas de médicos que no contuvieran información personal identificable, el equipo recurrió a «AskDocs» de la plataforma de foros Reddit.
En esta los usuarios publican preguntas a las que responden profesionales sanitarios verificados. Aunque cualquiera puede responder a una cuestión, los moderadores verifican las credenciales de los profesionales y las respuestas muestran el nivel de credenciales del encuestado, explica un comunicado de la universidad.
El equipo seleccionó al azar 195 intercambios de AskDocs en los que un médico verificado respondía a una pregunta pública. Proporcionó la pregunta original a ChatGPT y le pidió que redactara una respuesta.
Un grupo de tres profesionales sanitarios evaluó cada pregunta y las respuestas correspondientes, sin saber si esta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.
El panel de evaluadores prefirió las respuestas de ChatGPT a las de los médicos en un 79% de las ocasiones.
«Los mensajes de ChatGPT respondían con información matizada y precisa, que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas de los médicos», afirmó Jessica Kelley, coautora del estudio.
Además, la calidad de las respuestas de ChatGPT fue significativamente superior a la de los médicos: las respuestas de calidad buena o muy buena fueron 3,6 veces superiores para ChatGPT
Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces superiores para la IA.
El objetivo, apuntan los autores, es que un médico aproveche esta IA en su día a día, no sustituir al profesional.
«Estos resultados sugieren que herramientas como ChatGPT pueden redactar eficientemente consejos médicos personalizados de alta calidad para su revisión por parte de los médicos», detalla Christopher Longhurst, del UC San Diego Health. EFE
ngg/icn
© EFE 2023. Está expresamente prohibida la redistribución y la redifusión de todo o parte de los contenidos de los servicios de Efe, sin previo y expreso consentimiento de la Agencia EFE S.A.