OpenAI y otros buscan un nuevo camino hacia una IA más inteligente para enfrentar limitaciones actuales
Empresas de IA enfrentan los límites de escalar modelos masivos y exploran nuevas técnicas inspiradas en el razonamiento humano, lo que podría redefinir la competencia en tecnología y recursos de hardware.
Por: Reuters | Publicado: Martes 12 de noviembre de 2024 a las 08:03 hrs.
T+
T-
Foto: Bloomberg
Compartir
Las empresas de inteligencia artificial (IA) como OpenAI buscan superar retrasos y desafíos inesperados en el desarrollo de modelos de lenguaje cada vez más grandes mediante técnicas de entrenamiento que utilizan formas de “pensamiento” más similares a las humanas para los algoritmos.
Una docena de científicos, investigadores e inversores en IA le dijeron a Reuters que creen que estas técnicas, que respaldan el reciente modelo o1 de OpenAI, podrían redefinir la carrera por el liderazgo en IA y tener implicaciones en los tipos de recursos que las empresas de IA demandan insaciablemente, desde energía hasta tipos de chips.
OpenAI declinó hacer comentarios para esta historia. Después del lanzamiento de ChatGPT hace dos años, las empresas tecnológicas, cuyas valoraciones se han beneficiado enormemente del auge de la IA, han sostenido públicamente que "aumentar la escala" de los modelos actuales mediante el uso de más datos y poder de cómputo conducirá consistentemente a mejores modelos de IA.
Sin embargo, ahora algunos de los científicos de IA más destacados están cuestionando las limitaciones de esta filosofía de “más grande es mejor”.
Ilya Sutskever, cofundador de los laboratorios de IA Safe Superintelligence (SSI) y OpenAI, dijo recientemente a Reuters que los resultados de ampliar el preentrenamiento -la fase de entrenamiento de un modelo de IA que utiliza una gran cantidad de datos sin etiquetar para comprender patrones y estructuras del lenguaje- han alcanzado un punto de estancamiento.
A Sutskever se le atribuye haber sido uno de los primeros en promover grandes avances en IA generativa a través del uso de más datos y poder de cómputo en el preentrenamiento, lo que finalmente dio lugar a ChatGPT. Sutskever dejó OpenAI a principios de este año para fundar SSI.
“Los años 2010 fueron la era de la ampliación, ahora estamos de regreso en la era de la maravilla y el descubrimiento una vez más. Todos están buscando el próximo paso”, comentó Sutskever. “Escalar lo correcto importa ahora más que nunca”.
Sutskever no compartió más detalles sobre cómo su equipo está abordando este problema, aparte de decir que SSI está trabajando en un enfoque alternativo para aumentar la escala del preentrenamiento.
Retrasos y resultados adversos
Tras bambalinas, investigadores de grandes laboratorios de IA han enfrentado retrasos y resultados decepcionantes en la carrera por lanzar un modelo de lenguaje que supere al modelo GPT-4 de OpenAI, que ya tiene casi dos años, según tres fuentes familiarizadas con el tema.
Las llamadas "corridas de entrenamiento" para modelos grandes pueden costar US$ decenas de millones al ejecutarse cientos de chips simultáneamente. Es más probable que tengan fallos de hardware debido a la complejidad del sistema; los investigadores pueden no conocer el rendimiento final de los modelos hasta el final de la corrida, que puede durar meses.
Otro problema es que los modelos de lenguaje grandes consumen enormes cantidades de datos, y los modelos de IA han agotado todos los datos de fácil acceso en el mundo. Las interrupciones en el suministro de energía también han obstaculizado las corridas de entrenamiento, ya que el proceso requiere vastas cantidades de energía.
Para superar estos desafíos, los investigadores están explorando la “computación en tiempo de prueba”, una técnica que mejora los modelos de IA existentes durante la llamada fase de “inferencia”, o cuando el modelo está en uso. Por ejemplo, en lugar de elegir de inmediato una sola respuesta, un modelo podría generar y evaluar múltiples posibilidades en tiempo real, eligiendo finalmente el mejor camino a seguir.
Este método permite a los modelos dedicar más potencia de procesamiento a tareas difíciles como problemas de matemáticas o codificación, o a operaciones complejas que demandan un razonamiento y toma de decisiones similares a los humanos.
“Resultó que permitir que un bot piense solo 20 segundos en una mano de póquer logró el mismo rendimiento que aumentar el tamaño del modelo 100.000 veces y entrenarlo por 100.000 veces más tiempo”, dijo Noam Brown, investigador de OpenAI que trabajó en el modelo o1, en la conferencia TED AI en San Francisco el mes pasado.
Adopción de la técnica
OpenAI ha adoptado esta técnica en su nuevo modelo conocido como "o1", antes conocido como Q* y Strawberry, según reportó Reuters en julio. El modelo o1 puede “pensar” los problemas de manera escalonada, similar al razonamiento humano. También implica usar datos y retroalimentación curada por PhDs y expertos de la industria. La clave de la serie o1 es otro conjunto de entrenamientos realizado sobre modelos “base” como GPT-4, y la empresa afirma que planea aplicar esta técnica a modelos base más grandes.
Al mismo tiempo, investigadores en otros laboratorios de IA de alto nivel, como Anthropic, xAI y Google DeepMind, también han estado desarrollando sus propias versiones de la técnica, según cinco personas familiarizadas con los esfuerzos.
“Vemos muchas oportunidades a nuestro alcance para mejorar estos modelos rápidamente”, dijo Kevin Weil, director de producto de OpenAI, en una conferencia tecnológica en octubre. “Para cuando otros nos alcancen, intentaremos estar tres pasos más adelante”.
Google y xAI no respondieron a solicitudes de comentario, y Anthropic no tenía comentarios inmediatos.
Implicancias
Las implicaciones podrían alterar el panorama competitivo para el hardware de IA, hasta ahora dominado por la insaciable demanda de los chips de IA de Nvidia. Inversores destacados de capital de riesgo, como Sequoia y Andreessen Horowitz, que han invertido US$ miles de millones en el desarrollo costoso de modelos de IA en múltiples laboratorios, incluyendo OpenAI y xAI, están tomando nota de la transición y evaluando el impacto en sus inversiones.
“Este cambio nos moverá de un mundo de enormes clusters de preentrenamiento hacia nubes de inferencia, que son servidores distribuidos y basados en la nube para la inferencia”, dijo Sonya Huang, socia de Sequoia Capital, a Reuters.
La demanda de los chips de IA de Nvidia, que son los más avanzados, ha impulsado su ascenso a ser la empresa más valiosa del mundo, superando a Apple en octubre. A diferencia de los chips de entrenamiento, donde Nvidia domina, el gigante de los chips podría enfrentar más competencia en el mercado de inferencia.
Al preguntarle sobre el posible impacto en la demanda de sus productos, Nvidia señaló las presentaciones recientes de la compañía sobre la importancia de la técnica detrás del modelo o1. Su CEO, Jensen Huang, ha hablado sobre la creciente demanda de sus chips para inferencia.
“Ahora hemos descubierto una segunda ley de escalado, y esta es la ley de escalado en el momento de la inferencia… Todos estos factores han llevado a que la demanda de Blackwell sea increíblemente alta”, dijo Huang el mes pasado en una conferencia en India, refiriéndose al último chip de IA de la compañía.