Home Tecnología OpenAI disuelve el equipo de seguridad de alto perfil después de la...

OpenAI disuelve el equipo de seguridad de alto perfil después de la salida del científico jefe Sutskever

42
0

OpenAI ha disuelto efectivamente un equipo centrado en garantizar la seguridad de posibles futuros sistemas de inteligencia synthetic ultracapaces, tras la salida de los dos líderes del grupo, incluido el cofundador y científico jefe de OpenAI, Ilya Sutskever.

En lugar de mantener el llamado equipo de superalineación como una entidad independiente, OpenAI ahora está integrando más profundamente al grupo en sus esfuerzos de investigación para ayudar a la compañía a alcanzar sus objetivos de seguridad, dijo la compañía a Bloomberg Information. El equipo se formó hace menos de un año bajo el liderazgo de Sutskever y Jan Leike, otro veterano de OpenAI.

La decisión de repensar el equipo se produce cuando una serie de salidas recientes de OpenAI reavivan preguntas sobre el enfoque de la compañía para equilibrar la velocidad y la seguridad en el desarrollo de sus productos de IA. Sutskever, un investigador muy respetado, anunció el martes que dejaría OpenAI después de haber chocado previamente con el director ejecutivo Sam Altman sobre la rapidez con la que se desarrollaría la inteligencia synthetic.

Leike reveló su salida poco después con una escueta publicación en las redes sociales. “Renuncié”, dijo. Para Leike, la salida de Sutskever fue el colmo tras los desacuerdos con la empresa, según una persona familiarizada con la situación que pidió no ser identificada para discutir conversaciones privadas.

En un comunicado el viernes, Leike dijo que el equipo de superalineación había estado luchando por recursos. “Durante los últimos meses, mi equipo ha estado navegando contra el viento”, escribió Leike en X. “A veces teníamos dificultades con la computación y cada vez period más difícil realizar esta investigación essential”.

Horas más tarde, Altman respondió a la publicación de Leike. “Tiene razón, tenemos mucho más que hacer”, escribió Altman en X. “Estamos comprometidos a hacerlo”.

Otros miembros del equipo de superalineación también abandonaron la empresa en los últimos meses. OpenAI despidió a Leopold Aschenbrenner y Pavel Izmailov. La Información informó anteriormente sobre sus salidas. Izmailov había sido expulsado del equipo antes de su salida, según una persona familiarizada con el asunto. Aschenbrenner e Izmailov no respondieron a las solicitudes de comentarios.

John Schulman, cofundador de la startup cuya investigación se centra en grandes modelos de lenguaje, será el líder científico del trabajo de alineación de OpenAI en el futuro, dijo la compañía. Por otra parte, OpenAI dijo en una publicación de weblog que nombró al director de investigación Jakub Pachocki para asumir el papel de Sutskever como científico jefe.

“Estoy muy seguro de que nos llevará a lograr un progreso rápido y seguro hacia nuestra misión de garantizar que AGI beneficie a todos”, dijo Altman en un comunicado el martes sobre el nombramiento de Pachocki. AGI, o inteligencia synthetic common, se refiere a la IA que puede desempeñarse tan bien o mejor que los humanos en la mayoría de las tareas. AGI aún no existe, pero crearla es parte de la misión de la empresa.

OpenAI también cuenta con empleados involucrados en trabajos relacionados con la seguridad de la IA en equipos de toda la empresa, así como equipos individuales centrados en la seguridad. Uno de ellos, un equipo de preparación, se lanzó en octubre pasado y se centra en analizar y tratar de protegerse de posibles “riesgos catastróficos” de los sistemas de IA.

El equipo de superalineación estaba destinado a evitar las amenazas a más largo plazo. OpenAI anunció la formación del equipo de superalineación en julio pasado, diciendo que se centraría en cómo controlar y garantizar la seguridad del futuro software program de inteligencia synthetic que sea más inteligente que los humanos, algo que la compañía ha declarado durante mucho tiempo como un objetivo tecnológico. En el anuncio, OpenAI dijo que destinaría el 20% de su potencia informática en ese momento al trabajo del equipo.

En noviembre, Sutskever fue uno de los varios miembros de la junta directiva de OpenAI que decidieron despedir a Altman, una decisión que desató un torbellino de cinco días en la empresa. El presidente de OpenAI, Greg Brockman, renunció en protesta, los inversores se rebelaron y, en cuestión de días, casi todos los aproximadamente 770 empleados de la startup firmaron una carta amenazando con renunciar a menos que Altman regresara. En un cambio notable, Sutskever también firmó la carta y dijo que lamentaba su participación en el derrocamiento de Altman. Poco después, Altman fue reintegrado.

En los meses posteriores a la salida y el regreso de Altman, Sutskever desapareció en gran medida de la vista del público, lo que generó especulaciones sobre su papel continuo en la empresa. Sutskever también dejó de trabajar desde la oficina de OpenAI en San Francisco, según una persona familiarizada con el asunto.

En su declaración, Leike dijo que su salida se produjo después de una serie de desacuerdos con OpenAI sobre las “prioridades centrales” de la compañía, que no cree que estén lo suficientemente centradas en medidas de seguridad relacionadas con la creación de IA que pueda ser más capaz que las personas. .

En una publicación a principios de esta semana anunciando su partida, Sutskever dijo que está “seguro” de que OpenAI desarrollará AGI “que sea segura y beneficiosa” bajo su liderazgo precise, incluido Altman.

© 2024 Bloomberg LP


(Esta historia no ha sido editada por el private de NDTV y se genera automáticamente a partir de un feed sindicado).

Los enlaces de afiliados pueden generarse automáticamente; consulte nuestra declaración de ética para obtener más detalles.

fuente