Redes sociales

TikTok e Instagram, acusados de difundir contenidos que incitan al suicidio entre los adolescentes

Ocho años después de la muerte de Molly Russell, la Fundación Molly Rose denuncia que TikTok e Instagram siguen recomendando a menores, y a escala masiva, publicaciones sobre suicidio y autolesiones.

Instagram y Facebook sufren una caída en varios países, entre ellos España

Instagram y Facebook sufren una caída en varios países, entre ellos EspañaEFE

Publicidad

El caso de Molly Russell, la joven británica de 14 años que se suicidó en 2017, puso en el punto de mira a algunas redes sociales. El forense concluyó entonces que la menor estuvo expuesta a "contenidos nocivos en línea" relacionados con el suicidio y la autolesión. Sin embargo, ocho años después, la Fundación Molly Rose (MRF) sostiene que, pese al tiempo transcurrido y a los cambios normativos, las principales plataformas continúan ofreciendo este material a adolescentes de forma recurrente y prioritaria.

La investigación realizada por la MRF en colaboración con The Bright Initiative by Bright Data, simuló cuentas de chicas de 15 años en las semanas previas a la entrada en vigor de la Ley de Seguridad en Internet en Reino Unido. Las conclusiones fueron contundentes: el 97% de los vídeos recomendados en Instagram Reels y el 96% en la página "Para ti" de TikTok fueron catalogados como perjudiciales.

Más de la mitad de las publicaciones dañinas vistas en TikTok (55%) contenían referencias activas al suicidio o a la autolesión, y un 16% aludía a métodos para suicidarse. El alcance es masivo: uno de cada diez vídeos dañinos en TikTok acumulaba al menos un millón de "me gusta"; en Instagram, uno de cada cinco superaba los 250.000. El informe alerta además de nuevas funciones, como sugerencias de búsqueda generadas por IA junto al contenido recomendado, que abren, con un solo clic, auténticos "agujeros negros" de contenido.

La Ley y daños evitables

La MRF acusa a TikTok e Instagram de eludir el espíritu de la Ley de Seguridad en Internet y advierte de que la aplicación que prepara Ofcom, el Organismo regulador de las comunicaciones en Reino Unido, se queda corta. Ian Russell, presidente de la fundación y padre de Molly, afirma: "Es impactante que, ocho años después de la muerte de Molly, sigan proliferando en las redes sociales contenidos increíblemente dañinos sobre el suicidio, las autolesiones y la depresión, como los que ella vio (…). Es hora de que (el primer ministro) se muestre firme y presente sin demora una legislación reforzada que salve vidas".

El documento critica, además, que se recomiende a las plataformas gastar solo 80.000 libras (equivalente a poco más de 90.000 euros) para corregir algoritmos que, a juicio de la fundación, siguen propiciando daños evitables.

"Bombardeo a escala industrial"

La MRF describe un patrón algorítmico que identifica a jóvenes susceptibles y multiplica la exposición a contenidos nocivos. Andy Burrows, director ejecutivo de la fundación, sintetiza así el diagnóstico: "Los algoritmos nocivos siguen bombardeando a los adolescentes con niveles impactantes de contenido perjudicial, y en las plataformas más populares entre los jóvenes esto puede ocurrir a escala industrial". Y añade: "Las medidas establecidas por Ofcom (…) son, en el mejor de los casos, un parche y no serán suficientes".

La publicidad, también señalada

El informe documenta anuncios junto a publicaciones dañinas, uno de cada 9,5 contenidos vistos en TikTok y uno de cada diez en Reels, con marcas populares entre adolescentes. Para Harriet Kingaby, cofundadora de Conscious Advertising Network, "las plataformas se benefician de este contenido y, a menudo, los anunciantes contribuyen sin saberlo a financiarlo. La necesidad de transparencia no podría ser más clara".

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Publicidad