FT

¿Quién queda en OpenAI? Sam Altman consolida su poder tras el fallido golpe

La partida de la directora de tecnología, Mira Murati, asegura que el director ejecutivo de la creadora de ChatGPT ahora esté rodeado de aliados.

Por: Financial Times | Publicado: Lunes 30 de septiembre de 2024 a las 10:50 hrs.
  • T+
  • T-
El CEO de OpenAI, Sam Altman. (Foto: Bloomberg)
El CEO de OpenAI, Sam Altman. (Foto: Bloomberg)

Compartir

"OpenAI no es nada sin su gente". Esa fue la frase que decenas de empleados repitieron en las redes sociales en noviembre para presionar a la junta que había despedido al director ejecutivo Sam Altman y convencerlos de que lo reinstalaran.

Esas palabras se repitieron nuevamente el miércoles cuando la destacada directora de tecnología, Mira Murati, anunció su salida, junto con dos personas más: Bob McGrew, director de investigación, y Barret Zoph, vicepresidente de investigación.

La decisión de Murati sorprendió al personal y apuntó a una nueva dirección para la compañía de nueve años, que ha pasado de ser una organización de investigación en Inteligencia Artificial (IA) a un gigante comercial. Altman fue notificado solo por la mañana, apenas unas horas antes de que Murati enviara un mensaje a toda la empresa.

Altman dijo en X que "no fingirá que es natural que esto... sea tan abrupto", ya que las salidas hicieron evidente que la empresa no se ha recuperado de las fracturas causadas por el fallido golpe de otoño.

El control de Altman y nuevas inversiones

En los meses posteriores a la batalla con la junta, Altman se ha rodeado de aliados mientras la startup de rápido crecimiento sigue adelante con los planes para reestructurarse como una empresa con fines de lucro.

También surgió esta semana que Altman había discutido con la junta tomar una participación accionaria, en un momento en que la compañía con sede en San Francisco busca recaudar más de US$ 6 mil millones con una valoración de US$ 150 mil millones.

Esas conversaciones surgen después de que Altman, que ya es multimillonario por sus anteriores emprendimientos tecnológicos e inversiones, había dicho anteriormente que había optado por no tomar ninguna participación en OpenAI para mantenerse neutral en la compañía.

Este relato de cómo Altman consolidó su poder y lealtades en la creadora de ChatGPT se basa en conversaciones con siete empleados actuales y antiguos, así como asesores y ejecutivos cercanos al liderazgo de la compañía.

Dijeron que OpenAI planeaba depender del talento técnico existente y de nuevas contrataciones para asumir las responsabilidades de Murati y usar su salida para "aplanar" la organización. Altman tendrá una mayor participación técnica mientras la compañía busca mantener su liderazgo sobre Google y otros competidores.

A pesar de sus dramas, OpenAI sigue siendo un actor líder en la IA, ya que la startup reveló a principios de este mes el modelo o1, que, según ellos, es capaz de razonar, una hazaña con la que sus rivales Meta y Anthropic también están lidiando.

"Mira está enfocada en una transición exitosa con sus equipos antes de dedicar toda su energía y atención a lo que viene después", dijo una persona familiarizada con su pensamiento.

Cambios internos

Con la salida de Murati, Altman promovió a Mark Chen para dirigir la investigación junto con Jakub Pachocki, quien asumió el cargo de científico jefe en mayo, reemplazando a Ilya Sutskever.

En una entrevista con el Financial Times a principios de este mes, donde Murati presentó a Chen como el principal líder del proyecto o1, él dijo que la capacidad de los sistemas de IA para razonar "mejorará nuestras ofertas [y] ayudará a impulsar mejoras en todos nuestros programas".

Probablemente habrá más cambios en los próximos días, ya que Altman interrumpe un viaje a Europa esta semana para regresar a la sede de la compañía en San Francisco.

Entre los ejecutivos que permanecen en OpenAI se encuentran Brad Lightcap, el director de operaciones de la compañía que lidera sus acuerdos empresariales, y Jason Kwon, director de estrategia, ambos aliados de Altman desde hace mucho tiempo y que trabajaron en la incubadora de startups Y Combinator bajo Altman.

En junio, Altman contrató a Kevin Weil, director de producto, quien trabajó previamente en Twitter, Instagram y Facebook, y a Sarah Friar, directora financiera, ex directora ejecutiva de Nextdoor, una red social basada en vecindarios. Ambos provienen de empresas de tecnología de consumo, centrándose en productos y crecimiento de usuarios en lugar de ciencia o ingeniería.

Sus trabajos son nuevos para OpenAI, pero familiares para la mayoría de las startups de Silicon Valley, marcando el cambio de la compañía hacia convertirse en un grupo tecnológico más tradicional enfocado en construir productos que atraigan a los consumidores y generen ingresos. OpenAI dijo que estos esfuerzos no están en desacuerdo con garantizar que la IA beneficie a todos.

"A medida que hemos evolucionado de ser un laboratorio de investigación a una empresa global que ofrece investigación avanzada en IA a cientos de millones, nos hemos mantenido fieles a nuestra misión y estamos orgullosos de lanzar los modelos más capaces y seguros de la industria para ayudar a las personas a resolver problemas difíciles", dijo un portavoz de OpenAI.

Friar trató de mejorar la moral esta semana, diciéndole al personal que la ronda de financiamiento de US$ 6 mil millones, que se esperaba cerrar la próxima semana, estaba sobresuscrita, argumentando que su alto valor era un testimonio de su arduo trabajo.

Otro recién llegado destacado es Chris Lehane, exasistente del entonces presidente de EEUU, Bill Clinton, y vicepresidente de Airbnb, quien trabajó para Altman como asesor durante el golpe y se unió a la empresa a principios de este año. Recientemente asumió el cargo de vicepresidente de asuntos globales, reemplazando a Anna Makanju, la primera contratación de políticas de OpenAI, quien ha pasado a un nuevo rol como vicepresidenta de impacto global.

Con las últimas salidas, Altman se ha despedido de dos de los ejecutivos senior que habían expresado preocupaciones sobre él a la junta en octubre pasado: Sutskever y Murati, quienes dijeron que fueron contactados por la junta y se mostraron perplejos por la decisión de destituirlo.

Las preocupaciones incluían el estilo de liderazgo de Altman, quien socavaba y enfrentaba a las personas entre sí, creando un ambiente tóxico, según varias personas con conocimiento de la decisión de despedirlo.

En menos de un día, mientras los inversionistas y empleados respaldaban a Altman, Murati y Sutskever se unieron a las llamadas para su regreso y permanecieron en la empresa, deseando estabilizar la situación y seguir navegando hacia la misión: construir IA general (AGI, por sus siglas en inglés), sistemas que podrían rivalizar o superar la inteligencia humana, en beneficio de la humanidad.

Este fue el mantra bajo el cual OpenAI se fundó en 2015 por Elon Musk, Altman y nueve personas más. Inicialmente fue una organización sin fines de lucro, luego en 2019 se transformó en una entidad con ganancias limitadas.

Ahora, mientras busca cerrar su última ronda de financiación multimillonaria, la empresa está reconsiderando su estructura corporativa para atraer a inversores y generar mayores rendimientos. Solo dos cofundadores, Altman y Wojciech Zaremba, permanecen en la compañía. El presidente Greg Brockman está de licencia hasta fin de año.

El futuro de la IA general en la compañía

Para muchos del personal de OpenAI, hay un deseo de trabajar en AGI y alcanzar ese objetivo antes que competidores como Meta o xAI, la empresa de Musk. Ellos creen en lo que llaman el “culto a Sam” y confían en que él los guiará hacia este avance. Sin embargo, varios empleados han expresado preocupación sobre alcanzar este objetivo, sugiriendo que la creación de productos se está priorizando por encima de la seguridad.

Daniel Kokotajlo, exinvestigador en gobernanza de IA, dijo que cuando dejó la compañía en marzo, lo más cercano que OpenAI había tenido a un plan para garantizar la seguridad de AGI fue el apéndice final de un documento de diciembre escrito por Jan Leike, un investigador de seguridad, junto con Sutskever.

“Uno podría esperar que una empresa con más de 1.000 personas construyendo esto tuviera un plan integral por escrito sobre cómo garantizar la seguridad de AGI, el cual debería publicarse para que pudiera ser criticado y mejorado”, dijo.  “OpenAI sabe que cualquier detalle de este tipo no resistiría un escrutinio, pero este es el mínimo necesario que se espera de una institución que está construyendo la tecnología más poderosa y peligrosa jamás creada”.

OpenAI señaló su marco de preparación como un ejemplo de su transparencia y planificación, añadiendo que la tecnología también podría traer muchos aspectos positivos.

“OpenAI sigue invirtiendo significativamente en investigación de seguridad, medidas de protección y colaboraciones con terceros, y continuaremos supervisando y evaluando sus esfuerzos”, dijeron Zico Kolter y Paul Nakasone, miembros del comité de supervisión de seguridad y protección de la junta independiente.

Lo más leído