Tecnología

OpenAI comienza a entrenar a su próximo modelo de IA mientras lucha contra los problemas de seguridad

Un ejecutivo parece retractarse de la visión de la startup de construir una "superinteligencia" tras las salidas del equipo de "superalineación".

Por: Financial Times | Publicado: Martes 28 de mayo de 2024 a las 08:56 hrs.
  • T+
  • T-
Sam Altman, CEO de OpenAI.
Sam Altman, CEO de OpenAI.

Compartir

OpenAI dijo que había comenzado a entrenar su software de Inteligencia Artificial (IA) de próxima generación, incluso mientras la startup se retractaba de afirmaciones anteriores de que quería construir sistemas "superinteligentes" que fueran más inteligentes que los humanos.

La compañía con sede en San Francisco dijo el martes que había comenzado a producir un nuevo sistema de IA "para llevarnos al siguiente nivel de capacidades" y que su desarrollo estaría supervisado por un nuevo comité de seguridad.

Pero mientras OpenAI avanza rápidamente con el desarrollo de la IA, un alto ejecutivo de OpenAI pareció retractarse de los comentarios anteriores de su director ejecutivo, Sam Altman, de que en última instancia buscaban construir una "superinteligencia" mucho más avanzada que los humanos.

Anna Makanju, vicepresidenta de asuntos globales de OpenAI, dijo en una entrevista con el Financial Times que su "misión" era construir una inteligencia artificial general (AGI, por su sigla en inglés) capaz de "tareas cognitivas que un humano podría hacer hoy".

“Nuestra misión es construir AGI; no diría que nuestra misión es construir superinteligencia”, dijo Makanju. “La superinteligencia es una tecnología que será órdenes de magnitud más inteligente que los seres humanos en la Tierra”.

Altman dijo al FT en noviembre que pasaba la mitad de su tiempo investigando "cómo construir superinteligencia".

"Superalineación"

Al mismo tiempo que enfrenta la competencia de Gemini de Google y la startup xAI de Elon Musk, OpenAI intenta asegurar a los legisladores que está priorizando el desarrollo responsable de la IA después de que varios investigadores senior de seguridad renunciaran este mes.

Su nuevo comité será dirigido por Altman y los directores de la junta Bret Taylor, Adam D’Angelo y Nicole Seligman, y reportará a los otros tres miembros de la junta.

La compañía no dijo qué podría hacer el sucesor de GPT-4, que alimenta su aplicación ChatGPT y que recibió una actualización importante hace dos semanas, ni cuándo se lanzaría.

A principios de este mes, OpenAI disolvió su equipo de "superalineación" —encargado de centrarse en la seguridad de los sistemas potencialmente superinteligentes— después de que Ilya Sutskever, líder del equipo y cofundador de la compañía, renunciara.

La partida de Sutskever se produjo meses después de que liderara un golpe de estado contra Altman en noviembre que finalmente no tuvo éxito.

El cierre del equipo de superalineación ha resultado en la salida de varios empleados de la compañía, incluido Jan Leike, otro investigador senior de seguridad en IA.

Nuevo desarrollo

Makanju enfatizó que el trabajo en las "posibilidades a largo plazo" de la IA aún se estaba realizando "incluso si son teóricas".

“El AGI aún no existe”, añadió Makanju, y dijo que dicha tecnología no se lanzaría hasta que fuera segura.

El entrenamiento es el primer paso en cómo un modelo de IA aprende, utilizando un gran volumen de datos e información proporcionada. Después de haber procesado los datos y mejorado su rendimiento, el modelo es validado y probado antes de ser implementado en productos o aplicaciones.

Este proceso largo y altamente técnico significa que el nuevo modelo de OpenAI podría no convertirse en un producto tangible durante muchos meses.

Lo más leído