OpenAI ha disuelto efectivamente el equipo centrado en garantizar la seguridad futura de sistemas de inteligencia artificial de alta capacidad, tras la salida de dos de los líderes del grupo, incluido el cofundador y científico jefe de OpenAI, Ilya Sutskever.

En lugar de mantener el llamado equipo de superalineación como una entidad independiente, OpenAI ahora está integrando más profundamente al grupo en sus esfuerzos de investigación para ayudar a la compañía a alcanzar sus objetivos de seguridad, dijo la compañía a Bloomberg News. El equipo se formó hace menos de un año bajo el liderazgo de Sutskever y Jan Leike, otro veterano de OpenAI.

La decisión de repensar el equipo se produce cuando una serie de salidas recientes de OpenAI reavivan preguntas sobre el enfoque de la compañía para equilibrar la velocidad y la seguridad en el desarrollo de sus productos de IA. Sutskever, un investigador muy respetado, anunció el martes que dejaría OpenAI después de haber chocado previamente con el director ejecutivo Sam Altman sobre la rapidez con la que se estaba desarrollando la inteligencia artificial.

Leike reveló su partida poco después en una breve publicación en las redes sociales. “Renuncio”, dijo. Para Leike, la salida de Sutskever fue la gota que colmó el vaso tras una disputa con la empresa, según una persona familiarizada con la situación que pidió no ser identificada porque se trata de conversaciones privadas.

En su declaración del viernes, Leike dijo que el equipo de superalineación había luchado por conseguir recursos. “Durante los últimos meses, mi equipo ha estado navegando contra el viento”, escribió Leike en X. “A veces tuvimos problemas computacionales y se volvió cada vez más difícil completar esta importante investigación”.

Varias horas después, Altman respondió a la publicación de Leike. “Tiene razón, todavía tenemos mucho por hacer”, escribió Altman en X. “Estamos comprometidos a hacerlo”.

Otros miembros del equipo de superalineación también abandonaron la empresa en los últimos meses. Leopold Aschenbrenner y Pavel Izmailov, publicado por OpenAI. Información previa informó su salida. Izmailov había sido expulsado del equipo antes de irse, según una persona familiarizada con el asunto. Aschenbrenner e Izmailov no respondieron a las solicitudes de comentarios.

John Schulman, cofundador de una startup cuya investigación se centra en grandes modelos de lenguaje, será el líder científico para el futuro ajuste de OpenAI, dijo la compañía. Por otra parte, OpenAI dijo en una publicación de blog que nombró al director de investigación Jakub Pachocki para asumir el papel de Sutskever como científico jefe.

“Tengo plena confianza en que él nos llevará a lograr un progreso rápido y seguro hacia nuestra misión de garantizar que AGI funcione para todos”, dijo Altman en un comunicado el martes sobre el nombramiento de Pachocki. AGI, o inteligencia artificial general, se refiere a la IA que puede desempeñarse tan bien o mejor que los humanos en la mayoría de las tareas. AGI aún no existe, pero su creación es parte de la misión de la empresa.

OpenAI también cuenta con empleados involucrados en trabajos relacionados con la seguridad de la IA en equipos de toda la empresa, así como equipos individuales centrados en la seguridad. En primer lugar, el equipo de preparación, que se puso en marcha en octubre pasado y se centra en el análisis y los esfuerzos para contrarrestar los posibles “riesgos catastróficos” de los sistemas de IA.

Los equipos de superalineación están destinados a prevenir amenazas a largo plazo. OpenAI anunció la creación de un equipo de superalineación en julio pasado, diciendo que se centraría en cómo controlar y garantizar la seguridad del futuro software de inteligencia artificial que sea más inteligente que los humanos, algo que la compañía ha declarado durante mucho tiempo que es un objetivo tecnológico. En su anuncio, OpenAI dijo que utilizaría el 20% de su potencia informática para el trabajo en equipo.

En noviembre, Sutskever fue uno de varios miembros de la junta directiva de OpenAI que despidió a Altman, una decisión que provocó un torbellino de cinco días en la empresa. El presidente de OpenAI, Greg Brockman, renunció en protesta, los inversores se rebelaron y, en cuestión de días, casi todos los aproximadamente 770 empleados de la startup firmaron una carta amenazando con renunciar a menos que Altman regresara. Sutskever, por otra parte, también firmó la carta y dijo que lamentaba su participación en el despido de Altman. Poco después, Altman fue reintegrado.

En los meses posteriores a la salida y el regreso de Altman, Sutskever desapareció en gran medida de la vista del público, lo que alimentó las especulaciones sobre su papel continuo en la empresa. Sutskever también dejó de trabajar desde la oficina de OpenAI en San Francisco, según una persona familiarizada con el asunto.

En su declaración, Leike dijo que su salida se produjo después de una serie de disputas con OpenAI sobre las “prioridades centrales” de la compañía, que según él no se centraban lo suficiente en las medidas de seguridad relacionadas con la creación de una IA que pudiera ser más capaz que los humanos. .

En una publicación a principios de esta semana anunciando su partida, Sutskever dijo que estaba “seguro” de que OpenAI desarrollaría AGI “segura y útil” bajo su liderazgo actual, incluido Altman.

© 2024 Bloomberg LP


(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

Los enlaces de afiliados pueden generarse automáticamente; consulte nuestra declaración de ética para obtener más detalles.

Fuente