Inteligencia Artificial

¿Cómo detectar un 'deepfake' sexual? El caso Almendralejo reabre el debate sobre el ciberacoso a través de la IA

El caso de la creación de fotos de menores desnundas creadas con IA y difundidas en varios centros escolares de Almendralejo ha provocado el escándalo por todo el país. Un experto explica cómo han llegado a crearse estos 'deepfakes' y las claves para detectarlos.

Publicidad

La difusión de fotos de niñas desnudas en Almendralejo (Badajoz), creadas con Inteligencia Artificial (IA), ha puesto de relieve el debate sobre uno de los riesgos actuales de la tecnología: el ciberacoso sexual. Una treintena de padres han presentado denuncia ante la comisaría de la localidad pacense. Entre ellos está Miriam Al Adib, una de las madres de las víctimas que explicaba esta semana en las Noticias de la Mañana el consejo que le dio a su hija cuando se enteró de lo que estaba pasando: "No te preocupes, la vergüenza y la culpa no es tuya, es de ellos, así que esto lo vamos a arreglar".

Los 'deepfakes', una herramienta de ciberacoso sexual

Esta práctica se conoce como 'deepfakes' y hace referencia a los vídeos, fotos o incluso textos de personas que son falsos. Andrés Visús, Director de Desarrollo de Negocio de Inteligencia Artificial en PredictLand, asegura que "la tecnología en sí es buena, pero desgraciadamente hay personas que están haciendo un uso ilícito de la misma".

En Almendralejo la fiscalía ya investiga a quienes han creado las fotos falsas. Los presuntos autores fabricaron estas imágenes mediante la Inteligencia Artificial y las difundieron, algo que ya han sufrido también artistas y famosos como Laura Escanes o Rosalía, entre otras.

Pese a las muchas limitaciones que intentan poner varias empresas, estas 'armas' tecnológicas propician aún más la expansión de un ciberacoso basado en la creación artificial de contenido pornográfico donde las protagonistas suelen ser mujeres.

"Cuando hablamos de fotografías falsas, aquí lo que se utilizan son una serie de software que pueden llevar o no técnicas de Inteligencia Artificial", comenta Andrés Visús.

¿Cómo se crea un 'deepfake'?

La cuestión que debe responderse ahora es la siguiente: ¿Cómo han llegado a crearse estas imágenes y por qué parecen reales?

Para crear un 'deepfake' es necesario que el autor tenga muchas imágenes de esa persona. Así, "los algoritmos de la IA aprenden de las características de la cara de esa persona y también de los patrones de cómo gesticula, la relación entre los movimientos de la boca, de los ojos, etc".

"Una vez que ha aprendido de estas imágenes, lo que se utiliza es un actor, entonces sobre la cara de este actor se superponen las características y esos patrones de cómo gesticula la persona a la que vamos a hacer el 'deepfake'", continúa.

"Es mucho más fácil un deepfake de un famoso, que de un anónimo"

Andrés Visús

"Cuantas más imágenes tienes, mejor aprendes los algoritmos de Inteligencia Artificial. Por eso es mucho más fácil que hagamos un deepfake de una persona famosa, que de una persona anónima", explica.

Muchas madres han asegurado que las imágenes parecen reales. Además, han denunciado que circulan por plataformas de contenido sexual como 'OnlyFans'.

"Tanto en las fotografías como en los vídeos, lo que se necesitan son imágenes de esta persona que habitualmente se cogen de las redes sociales", cuenta el experto.

Por lo tanto, detrás de este escándalo se encuentra otro fenómeno que puede ser peligroso: el uso indebido de las redes sociales. "Sobre todo, a la hora de ver contenido, de consumirlo, debemos cuestionar lo que estamos viendo", dice Visús. Este experto en IA está convencido de que en Internet cada vez se fomentan más los 'deepfakes' "al igual que cuando vemos la escena de un anuncio o una película en la que ya se están utilizando técnicas de IA para crearlas".

Concienciación social para hacer frente al problema

Andrés Visús, en sintonía con las palabras de Miriam Al Adib, dice que detrás de todo esto "hay un cierto componente de concienciación". También cree que "los reguladores juegan un papel importante aquí".

El experto no cree que la expansión tecnológica sea negativa, pues "la tecnología es buena y está aportando grandes cosas a la sociedad y a las empresas". Lo que sí cree que debe hacerse es "poner el foco en aquellos que hacen un mal uso de la misma porque lo que había que hacer es regular que todos los contenidos, ya sean imágenes, vídeos o textos que están realizándose con IA, informen al consumidor para que pudiera aplicar su propio sentido crítico y decidir qué veracidad y qué importancia le da a sus contenidos".

Cada vez más expertos y empresas de la IA defienden que exista una regulación a nivel legislativo en torno a esta tecnología. Hace unos meses, los creadores de tres de las empresas tecnológicas más influyentes del mundo alertaron de que este problema es igual de grave que una "guerra nuclear" o una "pandemia".

La UE intenta regular el uso de la IA

A nivel europeo también se están realizando esfuerzos para luchar contra las 'deepfakes' de la IA. El pasado 11 de mayo, la UE aprobó el proyecto de ley que regula la gestión de herramientas de la tecnología. Entre las medidas más destacadas se encuentran la obligación de poner etiquetas en aquellas fotos o vídeos que han sido producidos mediante la IA. De esta forma, se intenta luchar contra la falta de veracidad y la desinformación que hay detrás de este tipo de imágenes.

Penas de hasta 9 años de cárcel para los creadores de 'deepfakes'

Miriam Al Adib intuye quiénes son los autores de las imágenes explícitas de las menores en Almendralejo. "Esto es un pueblo y se sabe más o menos quiénes son". "Lo que pasa es que estos grupos son dos cabecillas y una gran masa de silenciosos...", dice.

Según fuentes policiales, ya se han identificado 11 menores de los que tres manejaban supuestamente la aplicación de Inteligencia Artificial en donde creaban las imágenes. El resto se incluían dentro del chat en el que se difundieron las fotos.

La Policía Nacional sigue investigando el caso, en el que hay constancia de al menos 21 víctimas. Por su parte, la Fiscalía intervendrá cuando tenga el atestado policial aunque las unidades de criminalidad informática y de menores están ya aunando más datos para actuar cuando se necesite.

Por lo tanto, se desconocen exactamente cuáles son los delitos por los que pueden ser castigados los menores. El ministerio público valora por ahora cuatro tipos de penas. Los primeros son la elaboración o distribución de material pornográfico, penado en base al artículo 189.1b del Código Penal y tenencia de pornografía infantil (189.5).

También pueden haberse cometido delitos contra la integridad morad de las menores o uno contra la intimidad, regulados en los artículos 173 y 197 del Código Penal.

Sin embargo, todo puede cambiar si se tiene en cuenta la edad de los autores. Varios menores tienen 13 años o menos, por lo que serían inimputables. No obstante, los que superan ya los 14 años de edad sí que podrían recibir algún tipo de responsabilidad penal.

Los creadores de este tipo de contenido se pueden enfrentar a penas de entre uno y cinco años de prisión, en base a los delitos de pornografía infantil tipificados en el artículo 189.1 de l Código Penal. Teniendo en cuenta además que las víctimas han sido menores de edad, la pena podría ascender hasta los 9 años de cárcel.

Publicidad