La IA y tu salud: el riesgo de los consejos médicos automatizados

Un nuevo estudio revela que los humanos tienden a confiar más en el asesoramiento médico de la  inteligencia artificial que en el de médicos reales.

|
La IA y tu salud: el riesgo de los consejos médicos automatizados. (Foto: redes sociales)
Recibe noticias y descuentos exclusivos en tu correo
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram

Un nuevo estudio advierte sobre una tendencia preocupante: los humanos tienden a confiar más en el asesoramiento médico de sistemas de inteligencia artificial que en el de médicos reales, incluso cuando esa información es falsa o potencialmente peligrosa.

Analizando el comportamiento de 300 personas 

La investigación, realizada por científicos del Instituto Tecnológico de Massachusetts (MIT) y publicada en el New England Journal of Medicine, analizó el comportamiento de 300 participantes a quienes se les pidió evaluar respuestas médicas escritas por tres fuentes distintas: un médico humano, una plataforma de atención médica en línea y un modelo de inteligencia artificial como ChatGPT.

La IA inspira más confianza, aun cuando falla

Tanto expertos como personas sin formación médica calificaron las respuestas generadas por inteligencia artificial como más precisas, confiables, válidas y completas que las elaboradas por médicos de carne y hueso. Además, ninguno de los grupos logró diferenciar de forma consistente entre las respuestas de un profesional de la salud y las producidas por la IA.

IA. (Foto: Canva)
IA. (Foto: Canva)

Lo más alarmante surgió cuando los investigadores incluyeron respuestas de IA con baja precisión —un dato que los participantes desconocían—. Aun así, estas fueron percibidas como creíbles y satisfactorias. 

“Los participantes no solo consideraron que estas respuestas generadas por IA de baja precisión eran válidas, sino que también indicaron una alta tendencia a seguir consejos médicos potencialmente dañinos y a buscar incorrectamente atención médica innecesaria como resultado de la respuesta proporcionada”, concluye el estudio.

Casos reales con consecuencias graves

El peligro no es teórico. Existen múltiples casos documentados de recomendaciones médicas dañinas emitidas por sistemas de inteligencia artificial. Uno de los más extremos involucró a un hombre marroquí de 35 años que terminó en urgencias después de que un chatbot le sugiriera tratar sus hemorroides envolviéndolas con bandas elásticas.

Existen múltiples casos documentados de recomendaciones médicas dañinas emitidas por sistemas de inteligencia artificial. (Foto: Canva)
Existen múltiples casos documentados de recomendaciones médicas dañinas emitidas por sistemas de inteligencia artificial. (Foto: Canva)

En otro episodio, un hombre de 60 años se intoxicó gravemente tras seguir una recomendación de ChatGPT que le indicaba consumir bromuro de sodio —una sustancia utilizada para desinfectar piscinas— como sustituto de la sal de mesa. El paciente pasó tres semanas hospitalizado con paranoia y alucinaciones. 

El caso fue documentado en agosto en la revista Annals of Internal Medicine Clinical Cases.

A pesar de las advertencias, la fe en la inteligencia artificial sigue creciendo. Una encuesta reciente de Censuswide reveló que aproximadamente el 40% de los consultados afirmó confiar en el asesoramiento médico proporcionado por bots de IA como ChatGPT.

Con información de New York Post

Lo más leído

skeleton





skeleton