Meta
Meta solo tiene operativas ocho de sus 47 herramientas de protección a menores, según un estudio
Un informe independiente revela que la mayoría de las herramientas que Meta asegura tener para proteger a los menores no funcionan. De las 47 analizadas, solo ocho son efectivas.

Publicidad
Un informe independiente ha revelado que de las 47 herramientas que Meta (la empresa matriz de Facebook e Instagram) asegura haber implementado para proteger a los menores, solo ocho funcionan correctamente. El resto presentan fallos, han sido desactivadas o directamente no existen, según los investigadores de la Universidad de Northeastern y varios grupos defensores de la seguridad infantil.
El estudio señala que más del 60% de las funciones analizadas resultaron "ineficaces o inexistentes" y que algunas de las medidas anunciadas por la compañía, como los filtros antibullying, no se activaron ni siquiera ante los mensajes de acoso que la propia Meta había usado en sus campañas de promoción.
Un problema estructural en las redes sociales
Expertos en tecnologías y psicología advierten de que el problema va más allá de los fallos técnicos. Las redes sociales están diseñadas para retener la atención del usuario, incluso a costa de su bienestar. "Las redes sociales generalmente no te cobran por su uso", sino que "su modelo de negocio es que tú hagas 'click' en sus anuncios, en contenido promocional", explica Ana Freire, investigadora en Inteligencia Artificial de la Universitat Pompeu Fabra en el programa 'Salvados'. "Intentan que pases el mayor tiempo posible en sus redes sociales" y "para eso lo que intentan es mostrarte contenido que a ti te gusta".
Los menores, los más vulnerables
El informe alerta de que miles de adolescentes están expuestos cada día a contenidos violentos, autodestructivos o sexuales, lo que agrava problemas de autoestima, ansiedad y depresión. "Ni siquiera los propios programadores saben por qué el algoritmo toma una determinada decisión", señalan los autores del estudio, lo que plantea serias dudas sobre el control real que las plataformas ejercen sobre el contenido.
Arturo Béjar, exjefe de Protección y Cuidado de Facebook (contratado por el propio Mark Zuckerberg), asegura que muchas de las herramientas que desarrolló para proteger a los menores fueron eliminadas, y echa la culpa a Zuckerberg. "Si el quisiera mañana decir: yo no quiero que ningún adolescente sea expuesto a contenidos de suicidio, violentos... En tres a seis meses eso desaparece, tienen la capacidad", afirmó.
A pesar de las advertencias internas y externas, Meta ha reducido personal en los equipos de moderación y ha delegado parte del control del contenido a sistemas automatizados de inteligencia artificial. "Casi nadie fuera de Facebook sabe lo que ocurre en Facebook", denunció una extrabajadora.
El resultado, concluyen los investigadores, es un entorno cada vez más hostil para los menores y una brecha que va aumentando entre la imagen pública de las redes sociales y la realidad que se esconde tras sus algoritmos.
Los argumentos de Meta
La empresa tecnológica, por su parte, rechaza los resultados del informe. Un portavoz de Meta ha asegurado que "este informe tergiversa repetidamente nuestros esfuerzos por empoderar a los padres y proteger a los adolescentes, describiendo incorrectamente cómo funcionan nuestras herramientas de seguridad y cómo millones de padres y adolescentes las están utilizando hoy. Las Cuentas para Adolescentes lideran la industria porque ofrecen protecciones de seguridad automáticas y controles parentales sencillos. La realidad es que los adolescentes que se beneficiaron de estas protecciones vieron menos contenido sensible, experimentaron menos contactos no deseados y pasaron menos tiempo en Instagram por la noche. Los padres también tienen herramientas sólidas a su disposición, desde limitar el uso hasta supervisar las interacciones. Seguiremos mejorando nuestras herramientas y acogemos con gusto las críticas constructivas, pero este informe no lo es".
Desde Meta, alegan que el análisis contiene errores y malinterpretaciones. La empresa sostiene que muchas de las funciones con una calificación "roja" no fueron abandonadas, sino que se incorporaron en versiones más nuevas y mejoradas. Como ejemplo, mencionan que la función "Tómate un descanso" se integró dentro de las Cuentas para Adolescentes, que ahora incluyen recordatorios para dejar la aplicación después de 60 minutos y activan automáticamente el Modo Sueño durante la noche.
La empresa también argumenta que varias funciones se califican como ineficaces porque los evaluadores no interpretaron correctamente su propósito. Mencionan que, en el caso de las restricciones a adultos para iniciar chats con adolescentes, la función de la herramienta es proteger a los adolescentes de mensajes de adultos con los que no están conectados. También indican que la herramienta "Palabras Ocultas" solo filtra solicitudes de mensajes directos ofensivos y que los "Avisos de Seguridad" solo se muestran cuando un adulto presenta comportamientos sospechosos, como haber sido denunciado o bloqueado previamente por un adolescente. Según la compañía, estas medidas han tenido un gran impacto: en junio, los adolescentes bloquearon un millón de cuentas y denunciaron otro millón tras recibir estos avisos.
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com
Publicidad








