Inteligencia Artificial
China exigirá a los chatbots de inteligencia artificial que alerten si un usuario muestra signos de adicción
El gigante asiático propone una serie de normas que exigen que los chatbots de la IA monitoreen a los usuarios para detectar ciertas adicciones. Lo harían a través de los estados emocionales de los usuarios y serían capaces de intervenir cuando aparezcan posibles signos de adicción.

Publicidad
El gigante asiático propone una serie de normas que exigen que los chatbots de la IA monitoreen a los usuarios para detectar ciertas adicciones. Lo harían a través de los estados emocionales de los usuarios y serían capaces de intervenir cuando aparezcan posibles signos de adicción.
China lidera la respuesta a las crecientes preocupaciones sobre el daño psicológico de las relaciones impulsadas por la IA. Estas regulaciones las ha propuesto la Administración de Ciberespacio de China y se dirigen a los productos de IA que simulan personalidades humanas y que generan conexiones emocionales con los usuarios mediante texto, imágenes, audio o vídeo.
Según el borrador, los proveedores deberán avisar a los usuarios cuando su uso sea excesivo. Se encargarán de evaluar los niveles de dependencia emocional y de tomar medidas en casos donde los usuarios muestren emociones extremas o comportamientos adictivos.
Estos chatbots se comunicarán con los usuarios cada vez que se inicie sesión y cuando pasen 2 horas. Si el sistema detecta indicios de dependencia excesiva, también avisará. Un estudio de Fronteras en Psicología ha descubierto que casi el 50% de los estudiantes universitarios chinos han usado chatbots de IA en el último mes, exhibiendo niveles significativamente más altos de depresión en comparación con los no usuarios.
Otros países que regulan los chatbots de acompañamiento
China no es el único estado que regula los chatbots de acompañamiento. California fue el primer estado de Estados Unidos en aprobar una legislación similar en octubre. Esta ley entra en vigor este 1 de enero de 2026 y exigirá a las plataformas un recordatorio a los menores cada 3 horas de conexión. Esta norma exige la verificación de edad, prohíbe que los chatbots se presenten como sanitarios e impide que los menores vean imágenes de contenido sexual generadas por la IA.
Las señales de advertencia psicológicas identificadas clínicamente incluyen sesiones prolongadas que interrumpen el sueño, dependencia emocional y angustia cuando no se puede acceder. También la preferencia por conversaciones con chatbots en lugar de interacción humana.
Más Noticias
-
Los principales líderes mundiales, "amordazados" por Papá Noel y los Reyes Magos, en la viñeta gráfica de Alfredo Boto
-
La 'dama de rosa' vuelve a la televisión norcoreana para anunciar los últimos misiles de Kim Jong-un
-
Estados Unidos y Europa fortalecen la vía diplomática ante un posible acuerdo de paz en Ucrania
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad en nuestro perfil de Google.
Publicidad









