Inteligencia artificial

Alerta con una nueva estafa: se hacen pasar por famosos que promocionan productos

Mediante inteligencia artificial clonan la voz de rostros muy conocidos para promocionar diferentes negocios y robar nuestros datos

Publicidad

Todos saben quién es, millones de personas están pendientes de sus pasos. Leonel Messi es una estrella dentro y fuera del campo que mueve aficiones. Al ser tan conocido, hay muchos registros y entrevistas suyas; y al ser tan querido, es muy fácil conseguir vender un producto que lleve su firma.

Eso los estafadores lo saben muy bien, y por eso han utilizado su imagen para engañar a toda la gente posible. Cogieron una de sus entrevistas, y mediante una aplicación de Inteligencia Artificial clonaron su voz para que pareciera que estaba promocionando una aplicación móvil: “Mi equipo y yo lanzamos una aplicación con la que cualquiera puede ganar más de 800.000 pesos al día”. Promete a sus usuarios ganar cientos de euros de manera muy sencilla. Pero la realidad es otra, por mucho que parezca su voz, no es él.

Y no ha sido el único, muchas estrellas mundialmente conocidas han sido usados para este tipo de estafas. Los expertos reconocen que es cada vez más fácil y muy habitual ver como manipulan las voces de estos famosos para intentar engañarnos.

Hay maneras tan sencillas como utilizar una aplicación móvil que en solo uno segundos nos pone la cara de la cantante mundialmente conocida Rihanna.

Con técnicas muy similares estos estafadores han clonado la voz de varios famosos, a los que han suplantado su identidad.

Famosos manipulados por Inteligencia Artificial

El actor estadounidense Tom Hanks tuvo que pronunciarse en redes sociales y asegurar que no tiene nada que ver con la promoción de ninguna clínica dental: “¡Tened cuidado! Hay un video mío por ahí promocionando un plan dental con una versión de IA de mí. No tengo nada que ver con ello” publicaba el actor en redes alertando a sus seguidores.

También hemos visto un vídeo donde se utiliza la imagen de Taylor Swift, donde clonan su voz para que parezca que promociona un sorteo de sartenes. También el youtuber Mr Beast se pronunció negando su participación en un negocio de venta de iphones, y aseguraba que este tipo de estafas se estaba convirtiendo en algo muy preocupante.

“Mucha gente esta recibiendo este anuncio fraudulento mío de deepfake… ¿están las plataformas de redes sociales preparadas para manejar el aumento de los deepfakes de IA? Este es un problema grave” se pronunciaba el influencer en redes sociales

El último caso de este tipo de estafas ha sido con la imagen del rey Felipe VI. Usando uno de sus videos del discurso de Navidad, han clonado su voz para intentar vender una aplicación, asegurando a los españoles que pueden ganar mucho dinero.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Publicidad