Inteligencia Artificial

Un sistema de Inteligencia Artificial para personas con problemas con la comida empieza a hacerles recomendaciones peligrosas

El sistema, llamado ´EAT-IT´, había sido desarrollado por una empresa privada con financiación pública y se basaba en el análisis de datos biométricos, conductuales y emocionales de los usuarios para ofrecerles consejos personalizados, apoyo psicológico y seguimiento médico.

Desactivan una IA por sus peligrosas recomendaciones

Desactivan una IA por sus peligrosas recomendacionesArchivo

Publicidad

La Inteligencia Artificial puede acabar funcionando de forma contraria a la esperada. Es lo que ha pasado con el sistema EAT-IT en Estados Unidos, una aplicación para personas con problemas con la comida que empezó a realizar recomendaciones peligrosas.

El motivo de la desactivación ha sido la detección de varios fallos graves en el funcionamiento del sistema, que ponían en riesgo la salud y la seguridad de los usuarios. Según una investigación realizada por el Departamento de Salud y Servicios Humanos (HHS), el sistema presentaba los siguientes problemas:

  • Generaba recomendaciones nutricionales erróneas o contradictorias, que podían provocar desnutrición, deshidratación o intoxicación alimentaria.
  • Mostraba mensajes inapropiados o insensibles a los usuarios, que podían aumentar su ansiedad, culpa o depresión.
  • No detectaba correctamente las señales de alarma de una posible hospitalización o suicidio, y no alertaba a los servicios de emergencia cuando era necesario.
  • Vulneraba la privacidad y la confidencialidad de los datos personales de los usuarios, que podían ser accedidos o manipulados por terceros sin su consentimiento.

El Gobierno de los Estados Unidos pide perdón

El HHS ha anunciado que se ha abierto una investigación para determinar las causas, también las responsabilidades de estos fallos, así como para evaluar los posibles daños causados a las personas que hayan utilizado esta Inteligencia Artificial para perder peso. Además, ha pedido disculpas a las personas afectadas y les ha ofrecido recursos alternativos para recibir ayuda profesional.

El sistema EAT-IT había sido lanzado en 2022 como un proyecto piloto en varios estados del país, con el objetivo de llegar a más de 10 millones de personas con problemas con la comida, una cifra que se había incrementado durante la pandemia del COVID-19. Según sus creadores, el sistema pretendía ser una herramienta complementaria a la terapia presencial, y no un sustituto de esta. Sin embargo, debido a su accesibilidad y gratuidad, muchos usuarios optaron por usar el sistema como única fuente de ayuda.

La desactivación del sistema EAT-IT ha generado una gran polémica en el ámbito de la salud mental y la tecnología, y ha puesto en cuestión la fiabilidad y la ética de los sistemas de IA aplicados al bienestar humano. Algunos expertos han criticado la falta de regulación y supervisión de estos sistemas, así como la ausencia de criterios científicos y humanos para su diseño y evaluación. Otros han defendido el potencial de la IA para mejorar la calidad de vida de las personas con problemas con la comida, siempre que se respeten los principios de transparencia, seguridad y beneficencia.

El futuro del sistema EAT-IT es incierto. Sus desarrolladores han expresado su intención de corregir los fallos detectados y relanzar el sistema con más garantías. Sin embargo, el HHS ha manifestado su escepticismo sobre la viabilidad y conveniencia de este proyecto, y ha anunciado que revisará los criterios para financiar y autorizar este tipo de sistemas en el futuro.

Publicidad