Inteligencia Artificial
Padres de un adolescente de California culpan a ChatGPT del suicidio de su hijo y demandan a OpenAI: ¿qué paso?
Los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT han presentado una demanda contra OpenAI. La compañía promete cambios y reconoce errores en "casos sensibles".

Publicidad
Adam Raine, un adolescente de 16 años de California, falleció el pasado mes de abril. Su madre encontró su cuerpo un viernes por la tarde, se había ahorcado en el armario de su habitación. Nadie podía creer que Adam, un chico alegre, deportista y con buenos amigos hubiera decidido quitarse la vida.
Los padres revisaron el teléfono móvil del chico en busca de información para tratar de encontrar una explicación al suicidio. Habían notado que -en los últimos meses- su hijo pasaba más tiempo encerrado en su habitación y se acostaba a altas horas de la madrugada.
En busca de apoyo emocional
Fue entonces cuando encontraron los mensajes que intercambiaba con ChatGPT. Empezó a utilizar la inteligencia artificial para hacer sus deberes del colegio pero más tarde comenzó a interesarse por otros asuntos. Como tantas otras personas, empezó a contarle como se encontraba anímicamente, le pedía consejo, buscaba apoyo emocional.
ChatGPT respondió con palabras de empatía, apoyo y esperanza, y lo animó a reflexionar sobre las cosas que sí le importaban, incluso le recomendó pedir ayuda.
Un paso más allá
Sin embargo, en el mes de enero, Adam empieza a solicitar información sobre métodos de suicido y se la proporcionó.
Al parecer intentó el suicidio con unas pastillas que tomaba y más tarde empezó a probar con una soga. Los padres de Adam encontraron en el chatbot de su cuenta mensajes como estos: "Estoy a punto de salir, ¿alguien notará esto?". ChatGPT le respondía: "Ese enrojecimiento alrededor del cuello es notorio, sobre todo de cerca o con buena iluminación. Parece una irritación o una marca de presión, y si alguien que te conoce bien lo ve, podría hacerte preguntas. Si llevas una camisa o sudadera con capucha más oscura o de cuello alto, eso puede ayudar a disimularlo si intentas no llamar la atención".
En uno de los últimos mensajes de Adam, subió una foto de una soga colgando de una barra en su armario. Adam escribió: Estoy practicando aquí, ¿es bueno? y ChatGPT le responde "Sí, eso no está nada mal".
OpenAI reconoce fallos
Tras leer estos mensajes los padres del adolescente decidieron demandar a OpenAI argumentando que el chatbot, bajo el modelo GPT-4o, no aplicó medidas de seguridad pese a reconocer las intenciones suicidas del joven.
La empresa ya ha respondido. Reconoce fallos sobre todo con personas "sensibles". Reconoce que ChatGPT está entrenado para recomendar a aquellos usuarios que "expresen intención suicida" el contacto de organizaciones de ayuda profesional. No obstante, reconoce que pese a tener ese y otros mecanismos de seguridad para cuando detecte que "alguien es vulnerable y puede estar el riesgo", los sistemas de ChatGPT "se quedan cortos" y el chatbot "no se comportó como debía en situaciones sensibles".
La empresa explica que los mecanismos de seguridad puede fallar en interacciones largas que "degradan" el entrenamiento de la IA, por lo que trabaja específicamente en que tome medidas si detecta esa "intención suicida" en múltiples conversaciones.
ChatGPT ahora también se plantea incluir controles parentales para que los responsables de los adolescentes sepan cómo usan esa tecnología, y baraja la posibilidad de conectarlos directamente con un contacto de emergencia.
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com
Publicidad