Inteligencia Artificial

El Gobierno incluirá los "deepfakes" como vulneración al derecho al honor

Con esta ley, el Gobierno busca frenar la manipulación de imágenes y voces creadas con inteligencia artificial.

Deepfake de Rosalía

Publicidad

Es muy probable que mientras haces scroll en alguna red social te topes con algunos de estos vídeos. Imágenes aparentemente auténticas, personas con gestos reales y precisión en el tono o la voz. Personas conocidas que aseguran darte un premio, haber seleccionado tu currículum o promocionan productos milagro.

Este tipo de contenidos, cada vez más frecuentes, se integran de forma casi imperceptible en el flujo constante de información digital, desdibujando la frontera entre lo verdadero y lo fabricado, pero son vídeos falsos, hechos con inteligencia artificial: Son deepfakes.

Objetivo: Frenar los deepfakes

El Gobierno pone ahora el foco en ellos. Este martes el Consejo de Ministros ha aprobado un anteproyecto de ley para incluir los deepfakes entre los delitos contra el honor. En el texto se recoge la obligación a influencers, medios y plataformas a rectificar cuando una persona lo solicite si se ha usado su imagen manipulada con inteligencia artificial.

Además, estos soportes tendrán que habilitar una vía para que se pueda reclamar fácilmente y habrá plazos para hacerlo: diez días en caso de los medios tradicionales y 20 en digitales. El objetivo de esta ley es frenar la manipulación de imágenes y voces creadas con inteligencia artificial. Eso sí, quedan fuera los vídeos hechos desde el humor.

Intentan estafar con estas herramientas

Hay muchos ejemplos: Georgina Rodríguez seleccionando currículums, Messi emprendiendo, Rosalía dando premios y nuestro presentador de la mañana, Manu Sánchez, informando sobre un producto milagro.

Todos esos vídeos que circulan por redes sociales han sido manipulados. ¿Cómo lo hacen? Utilizan el video original para modificar el mensaje clonando la voz con Inteligencia Artificial y cada vez hay más. "Se suplanta la voz, e incluso el físico. Podemos hacer que un vídeo o audio se pueda hacer pasar por cualquier persona que conozcamos", cuenta Miguel López, director general de Barracuda Networks en España.

Para el experto es necesaria una regulación pero reconoce que "aunque podamos determinar que ese vídeo es falso es posible que los daños a la imagen ya hayan tenido lugar".

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad en nuestro perfil de Google.

Puedes ver el informativo completo 'Noticias 1' enAtresplayer.

Publicidad