Inteligencia artificial

Microsoft crea un equipo de expertos para luchar contra los peligros de la inteligencia artificial

El proveedor de ChatGPT planea reunir un equipo de investigación e invertir recursos para garantizar la seguridad de la inteligencia artificial.

Inteligencia Artificial

Inteligencia Artificial Pixabay

Publicidad

El proveedor de ChatGPT, OpenAI, planea reunir un nuevo equipo de investigación e invertir recursos significativos para garantizar la seguridad de la inteligencia artificial (IA) para la humanidad.

"El enorme poder de la superinteligencia podría llevar a la extinción humana"

"El enorme poder de la superinteligencia podría llevar al desempoderamiento humano o, incluso, a la extinción humana", escribieron el cofundador de OpenAI, Ilya Sutskever, y el jefe del departamento de Dirección Futura de OpenAI, Jan Leike, en una publicación de blog. "Actualmente, no tenemos forma de dirigir o controlar una IA potencialmente superinteligente y evitar que siga su propio camino".

Los autores del blog predijeron que los sistemas de inteligencia artificial superinteligentes, más inteligentes que los humanos, podrían convertirse en una realidad dentro de esta década.

Los humanos necesitarán mejores técnicas que las disponibles actualmente para controlar la inteligencia artificial superinteligente. Por lo tanto, Microsoft utilizará el 20 por ciento de su poder de cómputo durante los próximos cuatro años para encontrar una solución a este problema. Además, la empresa está en proceso de formar un nuevo equipo de investigación, el llamado 'Equipo de Superalineación', para este fin.

Nuevos marcos de seguridad

Microsoft ha propuesto la implantación de "nuevos marcos de seguridad de la IA". Para ello, se debe desarrollar un "marco legal de la arquitectura tecnológica de la inteligencia artificial" que asigne "responsabilidades regulatorias" para cada actor que cumpla funciones de "gestión de los diferentes aspectos de la tecnología de IA".

La compañía también recomienda "medidas de seguridad específicas" en las "infraestructuras críticas" que sean controladas por la IA como parte de un "enfoque integral". También será clave la "transparencia" y el "acceso académico y público" a sus sistemas.

Como punto final, se propone "buscar nuevas colaboraciones y alianzas público-privadas" para poder enfrentar los "retos" que supone la irrupción de esta nueva tecnología y su "acceso inclusivo" a la "capacitación en esta tecnología" para lograr la "sostenibilidad del planeta".

La empresa norteamericana ha propuesto estas recomendaciones tras la celebración del evento Microsoft AI & Innovation Summit para poder desarrollar una "IA responsable" en la que, además, se han mostrado las últimas novedades en las áreas de IA, computación cuántica y conectividad.

Publicidad