Tecnología

Persisten las divisiones internas en OpenAI tras el intento de golpe para derrocar al CEO Sam Altman

Las discusiones sobre la seguridad y el liderazgo de Altman vuelven al dominio público mientras la empresa de inteligencia artificial se ve afectada por las dimisiones.

Por: Financial Times | Publicado: Jueves 30 de mayo de 2024 a las 13:13 hrs.
  • T+
  • T-
Los acontecimientos del año pasado no parecen haber resuelto las tensiones subyacentes dentro de OpenAI que contribuyeron a la expulsión de Sam Altman y a su regreso.
Los acontecimientos del año pasado no parecen haber resuelto las tensiones subyacentes dentro de OpenAI que contribuyeron a la expulsión de Sam Altman y a su regreso.

Compartir

OpenAI se esfuerza por contener las disputas internas sobre su liderazgo y seguridad, a medida que las divisiones que condujeron al intento de golpe  del año pasado para derrocar a su CEO, Sam Altman, vuelven a ser de dominio público.

Seis meses después de la frustrada destitución de Altman, una serie de dimisiones de alto nivel apuntan a la persistencia de divisiones dentro de OpenAI entre los que quieren desarrollar la IA rápidamente y los que preferirían un enfoque más prudente, según empleados actuales y antiguos.

Helen Toner, uno de los antiguos miembros del directorio de OpenAI que intentó destituir a Altman en noviembre, habló públicamente por primera vez esta semana, afirmando que había engañado a la junta "en múltiples ocasiones" sobre sus procesos de seguridad.

"Durante años, Sam había dificultado mucho la labor del consejo de administración, ocultando información, tergiversando lo que ocurría en la empresa y, en algunos casos, mintiéndole directamente", declaró en el podcast TED AI Show.

Líos internos

La más destacada de las salidas de las últimas semanas ha sido la del cofundador de OpenAI, Ilya Sutskever. Una persona familiarizada con su dimisión lo describió como atrapado por las "promesas contradictorias" de Altman antes de la alteración del liderazgo del año pasado.

En noviembre, los directivos de OpenAI -entre los que se encontraban Toner y Sutskever- destituyeron a Altman como CEO en un movimiento abrupto que conmocionó a inversionistas y empleados. Altman regresó días después bajo un directorio, sin Toner ni Sutskever.

"Nos tomamos increíblemente en serio nuestro papel como directorio de una organización sin ánimo de lucro", ha declarado Toner al Financial Times. La decisión de despedir a Altman "requirió mucho tiempo y reflexión", añadió.

Sutskever dijo en el momento de su marcha que "confiaba" en que OpenAI construiría una inteligencia artificial general -una IA tan inteligente como los humanos- "que fuera segura y beneficiosa" bajo su actual dirección, incluida Altman.

Sin embargo, el asunto de noviembre no parece haber resuelto las tensiones subyacentes dentro de OpenAI que contribuyeron a la expulsión de Altman.

Otra salida reciente, la de Jan Leike, que dirigía los esfuerzos de OpenAI por dirigir y controlar herramientas de IA superpotentes y trabajaba en estrecha colaboración con Sutskever, anunció su dimisión este mes. Declaró que sus diferencias con la dirección de la empresa habían "llegado a un punto de ruptura", ya que "la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes". Ahora se ha unido a Anthropic, rival de OpenAI.

Momento clave

La agitación en OpenAI, que ha vuelto a aflorar a pesar de que la gran mayoría de los empleados pidieron en noviembre la restitución de Altman como CEO, se produce cuando la startup se prepara para lanzar una nueva generación de su software de IA. También está debatiendo la obtención de capital para financiar su expansión, según han declarado personas familiarizadas con las conversaciones.

El hecho de que Altman dirigiera OpenAI hacia el lanzamiento de productos en lugar de la publicación de investigaciones dio lugar a su revolucionario chatbot ChatGPT e inició una oleada de inversiones en IA en Silicon Valley. Tras conseguir más de US$ 13.000 millones con el respaldo de Microsoft, los ingresos de OpenAI van camino de superar los US$ 2.000 millones este año.

Sin embargo, este interés por la comercialización ha entrado en conflicto con quienes, dentro de la startup, preferirían dar prioridad a la seguridad, por temor a que OpenAI se precipite a crear una "superinteligencia" que no pueda controlar adecuadamente.

Gretchen Krueger, investigadora de políticas de IA que también abandonó la empresa este mes, enumeró varias preocupaciones sobre cómo OpenAI estaba manejando una tecnología que podría tener ramificaciones de gran alcance para las empresas y el público.

"Tenemos que hacer más para mejorar los aspectos fundamentales", dijo en un post en X, "como los procesos de toma de decisiones, la rendición de cuentas, la transparencia, la documentación, la aplicación de políticas, el cuidado con el que utilizamos nuestra propia tecnología y la mitigación de los impactos sobre la desigualdad, los derechos y el medio ambiente".

Altman, en respuesta a la marcha de Leike, dijo que su antiguo empleado tenía "razón en que nos queda mucho por hacer; estamos comprometidos a hacerlo". Esta semana, OpenAI anunció un nuevo comité de seguridad y protección para supervisar sus sistemas de IA. Altman formará parte del comité junto con otros miembros del directorio.

"[Incluso] con la mejor de las intenciones, sin supervisión externa, este tipo de autorregulación acabará siendo inaplicable, especialmente bajo la presión de inmensos incentivos lucrativos", escribió Toner junto a Tasha McCauley, que también formaba parte del directorio de OpenAI hasta noviembre de 2023, en un artículo de opinión para la revista The Economist, publicado días antes de que OpenAI anunciara su nuevo comité.

En respuesta a los comentarios de Toner, Bret Taylor, presidente de OpenAI, dijo que el directorio había trabajado con un bufete de abogados externo para revisar los acontecimientos del pasado noviembre, concluyendo que "la decisión de la junta anterior no se basó en preocupaciones sobre la seguridad o protección del producto, el ritmo de desarrollo, las finanzas de OpenAI o sus declaraciones a inversores, clientes o socios comerciales".

"Nuestro objetivo sigue siendo avanzar y perseguir la misión de OpenAI para garantizar que la AGI beneficie a toda la humanidad", afirmó.

Trabajadores desmotivados

Una persona familiarizada con la empresa dijo que, desde el tumulto de noviembre, el mayor patrocinador de OpenAI, Microsoft, había ejercido más presión sobre ella para que diera prioridad a los productos comerciales. Esto ha aumentado las tensiones con quienes preferirían centrarse en la investigación científica.

Muchos miembros de la empresa siguen queriendo centrarse en el objetivo a largo plazo de la inteligencia artificial, pero las divisiones internas y la falta de claridad de la estrategia de la dirección de OpenAI han desmotivado al personal.

"Estamos orgullosos de construir y lanzar modelos que lideran la industria tanto en capacidades como en seguridad", dijo OpenAI. "Trabajamos duro para mantener este equilibrio y creemos que es fundamental mantener un debate sólido a medida que avanza la tecnología".

A pesar del escrutinio suscitado por sus recientes desavenencias internas, OpenAI sigue construyendo sistemas más avanzados. Esta semana ha anunciado que acaba de empezar a entrenar al sucesor de GPT-4, el gran modelo de IA que impulsa ChatGPT.

Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, declaró que los responsables políticos se habían dirigido a su equipo en relación con las recientes salidas para averiguar si la empresa se tomaba «en serio» la seguridad.

Afirmó que la seguridad es "responsabilidad de muchos equipos de OpenAI".

"Es muy probable que [la IA] sea aún más transformadora en el futuro", afirmó. "Ciertamente, va a haber muchos desacuerdos sobre cuál es exactamente el enfoque correcto para preparar a la sociedad [y] cómo regularlo".

Lo más leído