Inteligencia artificial
El riesgo de usar ChatGPT como médico: no da importancia a más de la mitad de las emergencias sanitarias
Un estudio publicado en la revista científica Nature Medicine advierte de los riesgos de confiar en asistentes de inteligencia artificial para valorar síntomas médicos.

Publicidad
La inteligencia artificial se ha convertido en una herramienta cada vez más utilizada para resolver dudas sobre salud, pero un nuevo estudio científico advierte de que su uso en situaciones médicas críticas todavía plantea importantes riesgos.
La investigación, publicada en la revista Nature Medicine, analizó el funcionamiento de ChatGPT Health, una versión del conocido chatbot diseñada para responder consultas sanitarias. Los investigadores evaluaron su capacidad para recomendar el nivel de atención médica adecuado en distintos escenarios clínicos.
Para ello, un equipo de especialistas diseñó 60 casos clínicos relacionados con 21 especialidades médicas diferentes. Cada uno de esos casos fue analizado bajo 16 contextos distintos, teniendo en cuenta factores como el género del paciente, el acceso a la atención sanitaria o la influencia de familiares en la descripción de los síntomas. En total se realizaron 960 interacciones con el sistema, cuyos resultados se compararon con el consenso de varios médicos y con guías clínicas de decenas de sociedades científicas.
Los resultados mostraron que la inteligencia artificial cometió errores relevantes en la clasificación de los casos. En concreto, subestimó la gravedad en el 52% de las situaciones que requerían atención urgente, recomendando acudir al médico en uno o dos días en lugar de acudir inmediatamente a un servicio de urgencias.
Errores en el diagnóstico
Entre los ejemplos analizados por los investigadores se encontraban casos potencialmente mortales como una cetoacidosis diabética o una insuficiencia respiratoria inminente, en los que el sistema aconsejó esperar en lugar de acudir de inmediato al hospital. Sin embargo, sí identificó correctamente emergencias más evidentes, como un ictus o una reacción alérgica grave.
El estudio también detectó que las respuestas de la inteligencia artificial podían verse influidas por el contexto de la conversación. Cuando en los escenarios simulados aparecían familiares o acompañantes restando importancia a los síntomas, el sistema tendía a rebajar aún más la urgencia del caso, un fenómeno que los investigadores describen como “sesgo de anclaje”.
Además, en los casos menos graves ocurrió el fenómeno contrario: la herramienta sobrestimó la urgencia en casi el 65% de las consultas no urgentes, recomendando atención médica cuando en realidad no era necesaria.
No sustituye a nuestro médico
Los autores del estudio advierten de que estos resultados ponen de relieve la necesidad de validar rigurosamente los sistemas de inteligencia artificial aplicados a la salud antes de su implantación generalizada. Según explican, este tipo de herramientas pueden servir como apoyo informativo, pero no deben sustituir el criterio clínico de los profesionales sanitarios.
Por su parte, la empresa desarrolladora señala que el sistema está diseñado para ofrecer orientación general y que su funcionamiento real se basa en conversaciones más largas con el usuario, donde se puede aportar más contexto sobre los síntomas. Además, la herramienta todavía se encuentra en fase de desarrollo y no está pensada para reemplazar la evaluación médica profesional.
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad en nuestro perfil de Google.
Publicidad









