Meta
Meta solo tiene operativas ocho de sus 47 herramientas de protección a menores, según un estudio
Un informe independiente revela que la mayoría de las herramientas que Meta asegura tener para proteger a los menores no funcionan. De las 47 analizadas, solo ocho son efectivas.

Publicidad
Un informe independiente ha revelado que de las 47 herramientas que Meta (la empresa matriz de Facebook e Instagram) asegura haber implementado para proteger a los menores, solo ocho funcionan correctamente. El resto presentan fallos, han sido desactivadas o directamente no existen, según los investigadores de la Universidad de Northeastern y varios grupos defensores de la seguridad infantil.
El estudio señala que más del 60% de las funciones analizadas resultaron "ineficaces o inexistentes" y que algunas de las medidas anunciadas por la compañía, como los filtros antibullying, no se activaron ni siquiera ante los mensajes de acoso que la propia Meta había usado en sus campañas de promoción.
Un problema estructural en las redes sociales
Expertos en tecnologías y psicología advierten de que el problema va más allá de los fallos técnicos. Las redes sociales están diseñadas para retener la atención del usuario, incluso a costa de su bienestar. "Las redes sociales generalmente no te cobran por su uso", sino que "su modelo de negocio es que tú hagas 'click' en sus anuncios, en contenido promocional", explica Ana Freire, investigadora en Inteligencia Artificial de la Universitat Pompeu Fabra en el programa 'Salvados'. "Intentan que pases el mayor tiempo posible en sus redes sociales" y "para eso lo que intentan es mostrarte contenido que a ti te gusta".
Los menores, los más vulnerables
El informe alerta de que miles de adolescentes están expuestos cada día a contenidos violentos, autodestructivos o sexuales, lo que agrava problemas de autoestima, ansiedad y depresión. "Ni siquiera los propios programadores saben por qué el algoritmo toma una determinada decisión", señalan los autores del estudio, lo que plantea serias dudas sobre el control real que las plataformas ejercen sobre el contenido.
Arturo Béjar, exjefe de Protección y Cuidado de Facebook (contratado por el propio Mark Zuckerberg), asegura que muchas de las herramientas que desarrolló para proteger a los menores fueron eliminadas, y echa la culpa a Zuckerberg. "Si el quisiera mañana decir: yo no quiero que ningún adolescente sea expuesto a contenidos de suicidio, violentos... En tres a seis meses eso desaparece, tienen la capacidad", afirmó.
A pesar de las advertencias internas y externas, Meta ha reducido personal en los equipos de moderación y ha delegado parte del control del contenido a sistemas automatizados de inteligencia artificial. "Casi nadie fuera de Facebook sabe lo que ocurre en Facebook", denunció una extrabajadora.
El resultado, concluyen los investigadores, es un entorno cada vez más hostil para los menores y una brecha que va aumentando entre la imagen pública de las redes sociales y la realidad que se esconde tras sus algoritmos.
Más Noticias
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com
Publicidad