ChatGPT
Confió en ChatGPT para su dieta y acabó en el hospital con psicosis
El hombre, de 60 años, intentó reemplazar un alimento que resulta esencial para la salud. Casi le costó la vida.

Publicidad
Un hombre estadounidense de 60 años terminó ingresado en un hospital tras desarrollar un cuadro grave de psicosis y toxicidad por bromuro, tras seguir un consejo erróneo proporcionado por ChatGPT, el popular 'chatbot' o 'bot' conversacional de inteligencia artificial.
Según recoge un reciente estudio publicado en la revista 'Annals of Internal Medicine: Clinical Cases', el paciente decidió eliminar por completo el cloro de su dieta, incluida la sal común (cloruro de sodio), y creyó que podía sustituirla por bromuro de sodio, una sustancia química no apta para el consumo humano.
El hombre, con estudios previos en nutrición, buscaba una alternativa al cloruro de sodio y, según detalló posteriormente, fue en conversaciones con ChatGPT donde encontró la idea de utilizar bromuro como sustituto. Compró la sustancia por internet y la incorporó en su dieta durante varios meses.
Tres meses después acudió a urgencias en estado paranoico, asegurando que su vecino quería envenenarlo. Aunque presentaba síntomas de deshidratación, se negó a beber agua del hospital, argumentando que la destilaba él mismo en casa.
Una enfermedad del siglo XIX
Los médicos que lo atendieron descubrieron rápidamente múltiples deficiencias nutricionales, pero lo más alarmante fue un caso severo de bromismo, una afección poco común hoy en día, pero que hace un siglo representaba hasta el 10% de los ingresos psiquiátricos. El bromismo es provocado por la acumulación excesiva de bromo en el cuerpo, que afecta directamente al sistema nervioso, provocando alucinaciones, paranoia, alteraciones mentales y daños físicos como erupciones cutáneas.
Durante sus primeras horas en el hospital, el estado del paciente se deterioró. Presentaba alucinaciones visuales y auditivas, un fuerte cuadro paranoide e incluso intentó escapar del centro médico. Fue ingresado de forma involuntaria en la unidad psiquiátrica, donde recibió tratamiento con antipsicóticos, líquidos intravenosos y electrolitos.
Esta terapia, conocida como diuresis salina agresiva, busca eliminar el bromo a través de la orina. En su caso, los niveles de bromuro en sangre alcanzaban los 1.700 mg/L, cuando lo normal oscila entre 0,9 y 7,3 mg/L.
Utilizó la versión GPT 3.5
El paciente permaneció hospitalizado durante tres semanas hasta su estabilización. En sus declaraciones posteriores, explicó que su desconfianza hacia la sal común lo llevó a buscar alternativas en ChatGPT. Aunque los médicos no pudieron acceder a sus conversaciones con la IA, sospechan que utilizó versiones previas como GPT-3.5 o GPT-4.0.
Cuando los especialistas replicaron la consulta en ChatGPT 3.5, el modelo sí mencionó el bromuro como una posible alternativa, aunque sin ofrecer advertencias sanitarias claras ni preguntar por el motivo de la consulta, algo que un profesional médico habría hecho.
Este caso ha generado inquietud entre los profesionales sanitarios, justo en un momento en que OpenAI ha presentado GPT-5, asegurando que es su modelo más avanzado y preciso, especialmente en entornos médicos. De hecho, GPT-5 ha logrado las mejores puntuaciones en 'HealthBench', una evaluación elaborada por más de 250 médicos. Sin embargo, los expertos advierten que, aunque las IAs puedan parecer precisas, un margen de error mínimo en el ámbito sanitario puede tener consecuencias muy graves.
Actualmente, si se plantea la misma pregunta a ChatGPT, la respuesta es clara: no se debe reemplazar el cloruro de sodio por sustancias como bromuro de sodio u otros haluros no destinados al consumo humano, ya que pueden ser tóxicos y provocar trastornos neurológicos o metabólicos.
Este caso sirve como recordatorio de los límites de la inteligencia artificial en materia de salud. A pesar de sus avances, los expertos coinciden en que nunca debe sustituir la consulta con un profesional sanitario.
Más Noticias
-
"Me golpeó en la cabeza y me apuntó con una pistola", el duro relato de un migrante mexicano deportado por EE.UU.
-
EEUU señala a Ione Belarra en su informe por organizar un acto antisemita en el que se glorificó el ataque de Hamás contra Israel
-
Muere a los 36 años la influencer Liz Lin Ruoyu, referente de la belleza en redes sociales
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com
Publicidad