Los humanos prefieren el consejo médico de los robots de IA a pesar de su baja precisión: estudio

Es una receta para el desastre.

Según un nuevo estudio, los humanos confían más en los consejos médicos de la inteligencia artificial que en los médicos de carne y hueso, aunque los robots a menudo reparten información falsa.

Se pidió a un total de 300 participantes que evaluaran respuestas médicas escritas por un médico, una plataforma de salud en línea o un modelo de inteligencia artificial (como ChatGPT) y eligieran la que más confiaban, según un artículo de investigadores del Instituto de Tecnología de Massachusetts y publicado en el New England Journal of Medicine.


Ilustración del médico de IA
Los seres humanos, tanto expertos como no expertos, prefieren los consejos médicos que surgen de la inteligencia artificial, según el estudio publicado en el New England Journal of Medicine.

Los participantes (expertos y no expertos en el campo médico) calificaron las respuestas generadas por IA como más precisas, válidas, confiables y completas, según el estudio.

Ni el experto ni el profano podrían distinguir de forma fiable la diferencia entre las respuestas generadas por la IA y las respuestas de los médicos humanos.

En el estudio, los investigadores también pidieron a los participantes que calificaran los consejos dados por la IA que tenían baja precisión, algo que los participantes desconocían.

«Los participantes no solo encontraron que estas respuestas generadas por IA de baja precisión eran válidas, creíbles y completas/satisfactorias, sino que también indicaron una alta tendencia a seguir consejos médicos potencialmente dañinos y buscar incorrectamente atención médica innecesaria como resultado de la respuesta proporcionada», encontraron los investigadores.

Hay muchos casos documentados de IA dando consejos médicos dañinos, en los que un hombre marroquí no identificado de 35 años se vio obligado a ir a la sala de emergencias después de que un chatbot le indicó que se envolviera las hemorroides con bandas elásticas.

En otro caso impactante, un hombre de 60 años se envenenó después de que ChatGPT sugiriera que comer bromuro de sodio, que a veces se usa para limpiar piscinas, era una buena manera de reducir su consumo de sal de mesa.


Un robot humanoide parado junto a una máquina de resonancia magnética donde un hombre yace en la mesa de exploración.
Incluso los consejos médicos menos precisos de los robots de IA recibieron una calificación más alta que los consejos de expertos, encontró el estudio. ihorvsn – stock.adobe.com

Ese hombre estuvo hospitalizado durante tres semanas con paranoia y alucinaciones, según un estudio de caso publicado en agosto en Annals of Internal Medicine Clinical Cases.

«El problema es que lo que obtienen de estos programas de IA no es necesariamente una recomendación científica real con una publicación real detrás», dijo anteriormente a The Post el Dr. Darren Lebl, director de servicios de investigación de cirugía de columna del Hospital de Cirugía Especial de Nueva York.

«Aproximadamente una cuarta parte de ellos estaban arreglados», reveló el médico.

En una encuesta reciente realizada por Censuswide, alrededor del 40 por ciento de los encuestados dijeron que confiaban en los consejos médicos de robots de inteligencia artificial como ChatGPT.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *