OpenAI

El proyecto Q*, el descubrimiento de OpenAI que podría ser "un riesgo para la humanidad"

Q* podría ser un gran avance ante su capacidad matemática. En una carta se explican los desarrollos.

Imagen del logo de OpenAI

Imagen del logo de OpenAIReuters

Publicidad

Tras el despido de Sam Altman como CEO de su propia empresa, OpenAI cedía a la presión de inversores y Altman volvía como director ejecutivo con una nueva junta directiva. Sin embargo, las dudas siguen sobre el porqué de la decisión.

Antes del despido, varios investigadores escribieron una carta a la junta directiva sobre un descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad. Así lo informa 'Reuters'. La carta y el algoritmo de IA fueron los desarrollos clave antes de que la junta despidiera a Altman. Sin embargo, más de 700 empleados amenazaron con renunciar y unirse con Microsoft si no era readmitido.

Así funciona el proyecto Q*

La carta fue un factor más entre una lista larga de quejas de la junta, entre las que se encontraban preocupaciones sobre la comercialización de avances antes de comprender las consecuencias. En OpenAI confirmaron en un mensaje interno a la plantilla que había un proyecto llamado Q*, pronunciado Q star, y que se había escrito una carta advirtiendo de sus potenciales implicaciones.

Algunos creen que Q* podría ser un gran avance en la búsqueda de la startup de lo que se conoce como inteligencia artificial general (AGI), que es definido por OpenAI como sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas.

Este nuevo modelo puso resolver ciertos problemas matemáticos. Y aunque solo realizaban matemáticas al nivel de los estudiantes de escuela primaria, superar dichas pruebas hizo que los investigadores se sintieran muy optimistas sobre el éxito futuro de Q*. Los investigadores consideran que las matemáticas son una frontera en el desarrollo de la IA generativa. Actualmente, esta es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra. Sin embargo, la capacidad de hacer matemáticas implica que la IA tendría mayores capacidades de razonamiento que se asemejarían a la inteligencia humana.

En la carta, los investigadores señalaron la destreza y el peligro potencial de la IA. También señalaron el trabajo de un equipo de "científicos de IA". El grupo, formado combinando equipos anteriores de "Code Gen" y "Math Gen", estaba explorando cómo optimizar los modelos de IA existentes para mejorar su razonamiento y eventualmente realizar trabajo científico. Altman lideró los esfuerzos para hacer de ChatGPT una de las aplicaciones de software de más rápido crecimiento en la historia y atrajo la inversión necesaria para acercarse a AGI.

Altman bromeó en una cumbre de líderes mundiales en San Francisco diciendo que creía que se estaban vislumbrando importantes avances. "Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he estado en la sala, cuando en cierto modo empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante", dijo. Un día después fue despedido.

Publicidad