ChatGPT da respuestas médicas de manera más empática y de mayor calidad que un doctor real

ChatGPT da respuestas médicas de manera más empática y de mayor calidad que un doctor real

Imagen ilustrativa
Gettyimages.ru

 

 

A la vez, expertos destacan que es “esencial” que cualquier respuesta sea revisada cuidadosamente por un profesional médico.





Por rt.com

Un estudio dirigido por investigadores de la Universidad de California, EE.UU., mostró que los chatbots pueden ser mejores que un médico para crear la impresión de un trato amable al responder preguntas de los pacientes en foros públicos en línea.

Sin embargo, aunque los resultados sugieren que los asistentes de inteligencia artificial (IA) pueden ayudar a redactar respuestas a las preguntas de los pacientes, los expertos subrayan que la aplicación de la herramienta en la práctica clínica debería estar supervisada por médicos. Este criterio se basa en el historial de errores básicos que comete el algoritmo y la posibilidad de incluir en sus respuestas datos incorrectos o inventados. También es relevante el hecho de que el procedimiento experimental solamente haya evaluado las respuestas dadas por un solo profesional, lo que limitó el alcance de los resultados.

La investigación evaluaba la capacidad de respuesta empática de profesionales de la salud, con credenciales verificadas, y el chatbot de IA de ChatGPT. Para esto, un panel de expertos examinó cuál se desempeñó mejor al responder 195 preguntas médicas extraídas al azar de una subcomunidad pública llamada ‘AskDocs’ (Pregunta a un médico), alojada en el sitio web de foros sociales y agregador de noticias Reddit.

Cada pareja de respuestas a cada pregunta fue examinada a ciegas por tres jurados diferentes. Los evaluadores eligieron “qué respuesta fue mejor” y juzgaron tanto “la calidad de la información brindada” (muy mala, mala, aceptable, buena o muy buena) como “la empatía o trato brindado al lado de la cama” (sin empatía, levemente empática, moderadamente empática, empática, y muy empática). Los resultados medios se ordenaron en una escala de 1 a 5 y se compararon entre el chatbot y el médico. La puntuación fue promediada, haciendo un total de 585 valoraciones.

Lea nota completa Aquí