Publicidad

ALGORITMO YOUTUBE

Youtube recomienda a los usuarios qué vídeos explícitos ver después de haber buscado contenido sexual

Se abre una nueva polémica respecto al algoritmo que utiliza uno de los gigantes de internet, Youtube, para catalogar sus contenidos. En este caso también recomienda material específico para pedófilos.

La plataforma Yotube recomienda a los usuarios vídeos explícitos después de haber buscando contenido sexual. Lo ha revelado una investigación de la universidad de Harvard que pone de manifiesto como youtube muestra contenidos extremos para retener a los usuarios.

El ejemplo se ve en cómo un vídeo de dos niñas de diez años bañándose en una piscina, alcanzó las 400.000 visualizaciones. Según los científicos, un algoritmo de la plataforma es el que se había encargado de sugerir esas imágenes a usuarios que previamente habían buscando vídeos de contenido sexual.

"Existen sistemas de reconocimiento artificial que lo que hacen es analizar los vídeos que en un momento determinado hay personas que no están vestidas, que es lo mismo que sucede en otro tipo de vídeos y eso es lo que el sistema inteligente hace", afirma Deepak Daswani, experto en ciberseguridad.

La plataforma social está trabajando para para que esto no vuelva a ocurrir. "Aún estamos lejos del momento en que las máquinas controlen el mundo de manera automática y no haga falta la interacción humana", añade Daswani.

El portal ha enviado un comunicado en el que aseguran que están reforzando sus sistemas para limitar la difusión de contenidos delicados.

También te puede interesar...

El youtuber Austin Jones se declara culpable de pornografía infantil

El negocio de los 'gamers': pueden llegar a cobrar 50.000 dólares la hora por jugar en directo a un videojuego

Destierro tecnológico: prohíben utilizar Youtube al joven que humilló a un mendigo ofreciéndole galletas rellenas de pasta de dientes

Publicidad