Inteligencia Artificial

El creador de ChatGPT da 3 soluciones para que la Inteligencia Artificial no perjudique a los humanos

El cofundador de OpenAI ha pedido la regulación de la Inteligencia Artificial (IA) en el Congreso de Estados Unidos.

El cofundador de OpenAI, Sam Altman

El cofundador de OpenAI, Sam AltmanEFE

Publicidad

El jefe de Inteligencia Artificial del Pentágono o el exempleado Paul Christiano, son varios quienes han hablado estas últimas semanas sobre ChatGPT y la Inteligencia Artificial (IA). En esta ocasión es el turno de Sam Altman, director ejecutivo y confundador de OpenAI.

Tras una visita a la Casa Blanca, el cofundador se ha sentado frente al Congreso para pedir que se regule el desarrollo y los usos de la Inteligencia Artificial. A Altman le preocupan los probables riesgos de una tecnología como esta, por ello cree que es necesaria la intervención de los gobiernos del mundo.

Para el creador de ChatGPT, la intervención de estos asegurarían que estas herramientas se desarrollen de manera que protejan y respeten los derechos y libertades de los ciudadanos. "Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos", defendió.

Sam Altman mostró preocupación por los riesgos que la tecnología podría suponer para el mundo si su desarrollo no se supervisa. "Mi mayor miedo es que causemos un daño significativo al mundo. Si esta tecnología va mal, puede ir bastante mal", dijo.

Tras la intervención de Altman, los legisladores citaron riesgos como la pérdida de empleos o el uso de herramientas de creación de contenidos para generar información falsa. Para ilustrar sus preocupaciones, el senador Richard Blumenthal, presidente del subcomité de Privacidad, Tecnología y la Ley e impulsor de la audiencia, emitió una grabación realizada con inteligencia artificial que había sido escrita por ChatGPT, imitando el estilo y los principales focos de interés del congresista.

Los tres puntos de Sam Altman

El cofundador de OpenAI también se mostró abierto a la sugerencia de que el Gobierno desarrolle laboratorios independientes para comprobar la fiabilidad de los modelos de Inteligencia Artificial.

La segunda medida es la de crear un conjunto de normas de seguridad para los modelos de Inteligencia Artificial que incluya evaluaciones de sus riesgos. Los congresistas defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología.

Por último, Altman recomendó al realización de auditorías realizadas por expertos independientes. Punto que ha comenzado a realizar la Casa Blanca tras anunciar que las grandes empresas en el sector han aceptado someterse a una evaluación pública de sus sistemas durante el evento de 'hackers' DEF CON 31.

Publicidad