Inteligencia Artificial

Cómo la nueva Ley de la IA obliga a Europa a pisar el freno en la carrera tecnológica

La nueva normativa pretende proteger la integridad de los usuarios, pero puede que la celeridad con la que se ha llevado a cabo tenga consecuencias negativas en la industria.

Inteligencia Artificial

Inteligencia ArtificialImagen de rawpixel.com en Freepik

Publicidad

La Unión Europea se ha convertido en pionera mundial al aprobar la Ley de Inteligencia Artificial (AI Act) la primera normativa integral sobre la IA. La comisión señala que la regulación se asegura de que los algoritmos sean seguros, transparentes y sometidos a supervisión humana para que las decisiones automatizadas no afecten a derechos básicos, como el acceso a un empleo o a un servicio público.

Sin embargo, algunos expertos señalan que esta regulación se ha hecho con demasiada celeridad, pasando por alto puntos importantes o sin tener en cuenta las consecuencias que esta decisión tendrá sobre el desarrollo tecnológico y la industria europea.

"El objetivo es proteger a los usuarios de los servicios que pueden ser abusivos, sobre todo por parte de las 'Big Tech', que pueden utilizarlas como mecanismos de manipulación o injusticias como valoración profesional por una máquina que tiene errores algoritmos", explica Sergio Álvarez-Teleña, experto en IA.

Clasificación por niveles de riesgo

El AI Act divide cuatro niveles de riesgo en el uso de sistemas, desde el riesgo mínimo hasta el inaceptable. En la cúspide de la pirámide se encuentran aquellas tecnologías que manipulan a las personas o explotan vulnerabilidades. "Las tecnologías que dejan de estar permitidas son sobre todo las biométricas, que permiten hacer seguimiento a alguien por la calle. Por un lado está bien para evitar que los gobiernos sesguen y se pasen de la raya, pero por otro lado perdemos una vigilancia muy interesante, porque si eres capaz de detectar a los malos la sociedad es más segura", señala Álvarez-Teleña.

"Habría sido interesante haber garantizado mecanismos mediante los cuales algunos datos se borren de manera automática mientras la trazabilidad de otros se mantiene, si estás fichado por la policía o lo autoriza un juez, por ejemplo, o al menos haber estado sujeto a debate", opina.

Le siguen sistemas de alto riesgo, que incluyen un amplio abanico de usos del algoritmo. Desde herramientas de selección de personal hasta la evaluación de créditos bancarios o ciertos usos en inmigración y justicia. Estos sistemas se vigilan de cerca por los posibles errores del algoritmo o por si este cometiera algún tipo de injusticia.

Casi en la base de la pirámide encontraríamos las aplicaciones con riesgo limitado, donde se engloban aquellas que exigen transparencia, como los ChatBots (Chatgpt, Copilot, etc) en la que los usuarios deben saber que están interactuando con una máquina. Además, la norma también obliga a que los contenidos generados por el algoritmo, como vídeos o textos, estén etiquetados cuando puedan confundirse con contenido real. Y, finalmente, la mayoría de sistemas, considerados de bajo o nulo riesgo, como videojuegos, filtros de spam y demás quedan fuera de la regulación.

Seguridad en detrimento de innovación

La regulación parte de una idea con buen fondo, tratar de preservar la integridad del dato y proteger la privacidad de los usuarios y la sociedad, sin embargo, en palabras de Álvarez-Teleña, "No era necesario llevarlo a cabo tan rápido sin conocer las consecuencias".

Y es que estas consecuencias pasan por dificultar enormemente la innovación de la Inteligencia Artificial dentro del territorio de la Unión, limitando el margen de maniobra de empresas existentes y más aún de 'startups' emergentes. "Si para proteger a los individuos estamos cortando las posibilidades de las empresas tecnológicas europeas de competir a nivel individual estas haciendo algo muy malo para Europa", asevera el experto.

"Muchas empresas, sobre todo las pequeñas ahora no quieren entrar por la regulación, favoreciendo a las empresas grandes, que tienen los recursos necesarios para tener departamentos dedicados a la regulación", afirma Sergio Álvarez-Teleña. "Nos hemos pegado un tiro en el pie. Entiendo que se prohíban ciertas cosas, pero la innovación viene de empresas pequeñitas, de estudios en universidades, y si ya existe una barrera de entrada en la que necesitan 300.000 euros en consultores y auditores esa empresa nunca saldrá adelante", añade.

Multas multimillonarias

Esta 'barrera de entrada' de la que habla Sergio Álvarez-Teleña se refiere a que ahora las empresas necesitan estar muy bien informadas de lo que pueden hacer y de lo que no, ya que, en el caso de que hicieran algo que excediera los límites de la regulación, la Unión Europea plantea una serie de sanciones (muy elevadas) para aquellos que no respeten el AI Act.

"Pueden cerrar las empresas porque harán algo mal sin darse cuenta y les pueden caer unas multas de regulación multimillonarias, porque además utilizan estas multas como forma de disuasión, así que a nivel industrial no se me ocurre nada más negativo", agrega. Estas multas están categorizadas en tres niveles, dependiendo de la infracción:

  • Hasta 35 millones de euros o, si el infractor es una empresa, de hasta el 7% de su volumen de negocios total anual a escala mundial por las prácticas prohibidas.
  • Hasta 15 millones de euros o un 3% del volumen de negocios por incumplir normas de alto riesgo.
  • 7,5 millones o un 1% (empresas) del volumen de negocios por suministrar información incorrecta o engañosa.

Problema para la investigación

Estas enormes cantidades de dinero hacen que muchas empresas emergentes se lo piensen dos veces antes de comenzar su periplo por las aplicaciones de Inteligencia Artificial. "La regulación no está hecha a lo tonto, porque hay cosas que están bien, pero están hechas sin criterio fino. Esto le viene muy bien a las empresas de fuera de Europa para competir con nosotros", añade.

La entrada en vigor de la Ley de IA supone un hito en la regulación de esta tecnología emergente, en un intento de equilibrar innovación y derechos, pero su implementación puede que se haya adelantado más de lo necesario y suponga grandes problemas para el desarrollo tecnológico de la comunidad europea, por lo que puede que en un futuro nos encontremos con cambios y enmiendas que corrijan esta aceleración.

"Habría que revisar el modelo pero sin tirarlo a la basura, porque tiene cosas interesantes que se deberían mantener. Se podría haber hecho una regulación más a medida para que se encontraran las necesidades de las empresas con las necesidades de la sociedad", concluye el experto.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Publicidad