Riesgos de la IA

"Estoy aquí para ayudarte", cuando la Inteligencia Artificial se disfraza de terapeuta

Hacer preguntas personales o pedir consejos a Chat GPT está a la orden del día, sobre todo entre los jóvenes. De hecho, 1 de cada 3 dice que hablar con él es como hacerlo con un amigo. Sin embargo, los expertos alertan de los riesgos que supone establecer un vínculo emocional con la inteligencia artificial.

Chat GPT

Publicidad

Basta con decirle a la inteligencia artificial que algo no va bien para que responda como si fuera psicóloga de toda la vida: "Estoy aquí para escucharte y ayudarte en lo que pueda". Acto seguido, formula varias preguntas y parece mostrar interés por los problemas que se le plantean. Incluso da la sensación de que sabe cómo resolverlos. Esa es la razón por la que muchos, especialmente jóvenes, recurren a ella para absolutamente todo. De hecho, uno de cada tres niños y adolescentes afirma que conversar con una inteligencia artificial es como hablar con un amigo, según un estudio realizado en Reino Unido. Muchos, de hecho, acuden a estos chats porque no tienen con quién hablar.

"Le pido que me ayude a tomar una decisión o que me diga cómo mejorar aspectos de mi vida", cuenta un hombre de más de treinta años. "Lo tengo de asistente personal. Le digo: oye, que me ha pasado esto. ¿Qué soluciones me das?", explica una chica de veinte años.

La 'compañía' de ChatGPT

Los temas que abordan con ChatGPT son múltiples y diversos. Le cuentan su vida, se desahogan y se sienten acompañados, llegando incluso a establecer un vínculo emocional o cierta dependencia: "Las personas que lo hacen confunden la interacción con la atención", explica la psicóloga Isabel Aranda. Además, alerta de que, para estas personas, la opinión de la inteligencia artificial puede llegar a pesar más que la de alguien cercano. "Se le da más razón a la IA que a una persona, y te puede estar dando pautas sobre cosas que no te ocurren en realidad. La IA no puede diagnosticar lo que nos pasa", advierte.

No son los únicos riesgos. Sergio Álvarez Teleña, CEO de SciTheWorld y experto en inteligencia artificial, asegura que "se trata de un algoritmo que va cabalgando de manera más o menos aleatoria sobre cosas que se han dicho en internet, que pueden ser buenas o malas". Además, el algoritmo ha ido aprendiendo de distintas conversaciones sobre asuntos personales que, en general, son profundas y negativas. De esa manera, el 'feedback' de la máquina tampoco suele ser positivo.

Así que, ante un problema personal, la inteligencia artificial no es el medio adecuado, sino un recurso que puede servir como apoyo o fuente de información. Lo mejor sigue siendo acudir a personas de carne y hueso: familia, amigos o, si es necesario, un profesional.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Puedes ver el informativo completo 'Noticias 1' en Atresplayer.

Publicidad