Presentación Apple

Apple suspende su sistema para escanear fotos en busca de pornografía infantil

La compañía había iniciado su batalla contra el contenido de abuso a menores, en inglés, Child Sexual Abuse Material (CSAM), pero ha decidido revisar el sistema y esperar unos meses para ponerlo en funcionamiento.

Apple escaneará las fotos de tu iPhone para saber si guardas pornografía infantil

Apple escaneará las fotos de tu iPhone para saber si guardas pornografía infantil Antena 3 Noticias

Publicidad

Durante años, Apple ha hecho bandera de sus estándares de privacidad, pero su nuevo plan para escanear fotos del iPhone en busca de material inapropiado, de abuso a menores (CSAM), ha hecho saltar las alarmas. Todos están de acuerdo en tomar medidas contra la pornografía infantil pero los expertos en ciberseguridad advierten que el escaneo de fotos de Apple podría tener desventajas. Aquí te explicamos el plan Apple para escanear las fotos de tu iPhone y lo que podría significar para tu seguridad.

¿Qué está haciendo Apple contra la pornografía infantil?

Apple usará su tecnología de detección CSAM para 3 nuevas funciones en la actualización de sus nuevo sistema operativo iOS 15. La primera actualización es una función de control parental que, cuando esté habilitada, escaneará fotos en la aplicación, mensajes en los teléfonos de los niños y enviará notificaciones sí detecta contenido explícito.

La segunda función escanea, marca e informa sobre fotos en el sistema de almacenamiento en la nube iCloud que puedan contener material inapropiado, y la tercera función advertirá a los usuarios cuando usan Siri o el sistema de búsquedas sobre imágenes de abuso infantil.

¿Cómo funcionará este sistema contra la pornografía infantil?

El sistema de Apple usará un algoritmo. La tecnología de detección CSAM de Apple escaneará una imagen en la cuenta del usuario de iCloud y la comparará con diferentes códigos de imágenes conocidas de abusos a menores, que son almacenadas en una base de datos por organizaciones.

Si se cargan 30 o más imágenes en el sistema que coincidan con una imagen de las bases de datos de pornografía infantil, un agente revisará cada imagen para ver si realmente es CSAM. Si se determina que es CSAM, Apple cerrará la cuenta del usuario e informará a la policía.

Apple asegura que el sistema que usará no buscará cualquier foto, buscará aquellas imágenes que coincidan con fotografía y vídeos de pornografía infantil y serán cotejadas con al menos 2 bases de datos de organizaciones gubernamentales.

¿Por qué Apple escanea fotos?

El material de pornografía infantil se está difundiendo cada vez más rápido, con millones de imágenes online y más de 19.100 víctimas identificadas por las fuerzas del orden. En un comunicado, Apple dijo que sus nuevas funciones tienen como objetivo "ayudar a proteger a los niños".

¿Por qué la gente está preocupada por su privacidad?

Desafortunadamente, el nuevo sistema de detección CSAM de Apple podría ser contraproducente, dicen los expertos en ciberseguridad. A muchos les preocupa que el escaneo de fotos de Apple pueda dar lugar a abusos por parte de cibercriminales, gobiernos e incluso la misma compañía.

El cifrado de extremo a extremo es una característica de seguridad que garantiza que nadie escuche sus mensajes. Pero al utilizar la nueva tecnología CSAM de Apple, alguien podría acceder y espiar las fotos y los vídeos de los usuarios.

La función también podría utilizarse por un tercero para buscar otro tipo de material, como contenido político o cosas que sean críticas contra un gobierno. En respuesta a esto, Apple asegura a los usuarios que "rechazará tales demandas" por parte de los gobiernos.

Publicidad