Investigadores de OpenAI avisaron de un avance que amenazaba a la humanidad antes del despido de Altman | Tecnología

Varios investigadores de la plantilla de OpenAI enviaron al consejo de administración poco antes del despido de Sam Altman como consejero delegado una carta, según han publicado la agencia Reuters y el medio especializado The Information, que citan fuentes familiarizadas con el asunto sin identificar. En ella, advertían de un poderoso descubrimiento de inteligencia artificial que, según ellos, podría amenazar a la humanidad. No está claro el papel que jugó esa carta en el despido de Altman. Fuentes citadas por Reuters la señalan como decisiva, mientras que el medio especializado The Verge asegura que la carta no llegó al consejo y que no tuvo que ver en el despido de Altman.

La víspera de su cese fulminante, Altman intervino en la cumbre de directivos celebrada en paralelo a la de la Asociación Económica Asia Pacífico (Apec). “Cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida”, dijo allí. En principio no se dio especial importancia al comentario ni se supo a qué desarrollos concretos aludía.

Según The Information, algunos empleados de OpenAI creen que las palabras de Altman se referían a una innovación realizada por los investigadores de la empresa a principios de este año que les permitiría desarrollar modelos de inteligencia artificial mucho más potentes, según una persona familiarizada con el asunto. El avance técnico, liderado por el científico jefe de OpenAI, Ilya Sutskever, suscitó la preocupación de algunos empleados por el hecho de que la empresa no dispusiera de las salvaguardias adecuadas para comercializar modelos de inteligencia artificial tan avanzados.

Según las fuentes citadas por Reuters, la carta fue uno de los factores de una larga lista de agravios que condujeron al despido de Altman. La agencia no ha podido hacerse con una copia de la carta ni hablar con los investigadores que la escribieron. Según una de las fuentes, la directiva Mira Murati, escogida inicialmente como sustituta provisional de Altman, mencionó el proyecto, llamado Q*, a los empleados este miércoles y dijo que se había enviado una carta al consejo antes del despido de Altman, que luego ha sido readmitido por la presión de empleados e inversores.

Tras la publicación de la noticia, un portavoz de OpenAI declaró a Reuters que Murati había informado a los empleados de lo que iban a publicar los medios, pero que no se pronunció sobre la veracidad de la información. Según esta, el fabricante de ChatGPT ha hecho progresos en Q* (pronunciado Q-Star), que algunos creen internamente que podría ser un gran avance en la búsqueda de la superinteligencia (la que supera a la humana), también conocida como inteligencia artificial general (AGI, por sus siglas inglesas). Otras fuentes familiarizadas con el proyecto Q*, sin embargo, no consideran que se trate de un avance rompedor.

Problemas matemáticos

Gracias a sus enormes recursos informáticos, el nuevo modelo fue capaz de resolver ciertos problemas matemáticos. Aunque solo realiza operaciones matemáticas al nivel de los estudiantes de primaria, la superación de ese tipo de pruebas hizo que los investigadores se mostraran muy optimistas sobre el futuro éxito de Q*, afirmó la fuente. A diferencia de una calculadora que puede resolver un número limitado de operaciones, la IAG puede generalizar, aprender y comprender.

Los investigadores consideran que las matemáticas son la frontera del desarrollo de la IA generativa. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra, como en ChatGPT. Las respuestas a una misma pregunta pueden variar mucho. Pero conquistar la capacidad de hacer cálculos matemáticos donde solo hay una respuesta correcta implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana. Esto podría aplicarse, por ejemplo, a la investigación científica novedosa, creen los investigadores de IA.

Según Reuters, en su carta al consejo, los investigadores señalaron las proezas de la IA y su peligro potencial. Los informáticos llevan mucho tiempo debatiendo sobre el peligro que suponen las máquinas superinteligentes, si se planteasen, por ejemplo, que les interesa la destrucción de la humanidad. En el consejo de OpenAI había dos personas muy sensibles a esos riesgos, que han dimitido como parte del acuerdo para el retorno de Altman.

Según la carta que los empleados han enviado al consejo pidiendo su dimisión, esos independientes transmitieron a los directivos que permitir la destrucción de la compañía podría ser consistente con su misión en favor de la humanidad. Y, de hecho, ficharon a un nuevo jefe provisional, Emmet Shear, que se autodefine como un apocalíptico partidario de frenar el desarrollo de la inteligencia artificial, aunque luego ha colaborado en el regreso de Altman.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.