Una nueva generación de chips está llegando para impulsar el auge de la Inteligencia Artificial
La demanda de memoria de gran ancho de banda está aumentando rápidamente para facilitar las transferencias ultrarrápidas de datos.
- T+
- T-
Algunos recordarán los días en que descargar una película suponía una espera de más de una hora. Ahora, los nuevos chips pueden transferir datos equivalentes a más de 160 películas Full HD en menos de un segundo.
La industria de chips de Inteligencia Artificial (IA) ha desarrollado una nueva apreciación por la memoria de Alto Ancho de Banda (HBM, sigla en inglés), la tecnología detrás de estas transferencias de datos ultrarrápidas. Los analistas alguna vez consideraron poco probable que fuera comercialmente viable, cuando se lanzó por primera vez en 2013.
Pero los desarrolladores de chips estadounidenses Nvidia y AMD, están dando nueva vida a la tecnología avanzada que ahora se ha convertido en un componente crítico de todos los chips de IA. El problema más apremiante para los fabricantes de chips de IA es la demanda cada vez mayor de más potencia de procesamiento y requisitos de ancho de banda a medida que las empresas se apresuran a ampliar los centros de datos y desarrollar sistemas de IA, como grandes modelos de lenguaje.
La guerra de los chips de IA está a punto de acelerar aún más ese crecimiento el próximo año. AMD acaba de lanzar un nuevo producto con la esperanza de competir con Nvidia.
Mientras tanto, las aplicaciones de IA generativa con gran cantidad de datos están superando los límites de rendimiento de lo que pueden ofrecer los chips de memoria convencionales. Velocidades de procesamiento de datos y tasas de transferencia más rápidas requieren una mayor cantidad de chips que ocupan más espacio físico y consumen más energía.
Hasta ahora, la configuración tradicional ha consistido en colocar chips uno al lado del otro sobre una superficie plana que luego se conectan con cables y fusibles. Más chips significan una comunicación más lenta a través de ellos y un mayor consumo de energía.
La memoria de HBM cambia décadas de convenciones en la industria de chips al apilar múltiples capas de chips una encima de otra y utiliza componentes de vanguardia, incluida una pequeña placa de circuito más delgada que una hoja de papel, para empaquetar chips mucho más juntos en una forma tridimensional.
Esta mejora es fundamental para los fabricantes de chips de IA, ya que la proximidad entre los chips utiliza menos energía. La HBM utiliza aproximadamente 75% menos que las estructuras tradicionales. Las investigaciones también han demostrado que las memorias de HBM también proporcionan hasta cinco veces más ancho de banda y ocupan menos espacio: menos de la mitad del tamaño de las actuales.
Escepticismo inicial
Si bien la tecnología es avanzada, no es nueva. AMD y el fabricante de chips surcoreano SK Hynix comenzaron a trabajar en HBM hace 15 años, cuando los chips de alto rendimiento se utilizaban principalmente en el sector de los juegos.
Los críticos en ese momento se mostraron escépticos de que el aumento del rendimiento valdría los costos adicionales. HBM utiliza más componentes, muchos de los cuales son complejos y difíciles de fabricar, en comparación con los chips tradicionales. En 2015, dos años después del lanzamiento, los analistas esperaban que HBM quedara relegada a un nicho diminuto. Los costos parecían demasiado altos para su uso en el mercado masivo.
Siguen siendo caros hoy en día y cuestan al menos cinco veces más que los chips de memoria estándar. La diferencia ahora es que los chips de IA que utilizan también alcanzan un precio elevado. Y los gigantes tecnológicos ahora tienen un presupuesto mucho mayor para gastar en chips avanzados que el que tenían los jugadores hace una década.
Por ahora, sólo una empresa, SK Hynix, es capaz de producir en masa los productos HBM3 de última generación, los que se utilizan en los chips de IA actuales. Tiene 50% del mercado global, mientras que el resto del mercado está en manos de dos rivales, según datos de la consultora TrendForce. Samsung y Micron producen HBM de generaciones anteriores y lanzarán sus últimas versiones en los próximos meses. Pueden obtener ganancias inesperadas del producto de alto margen junto con una demanda en rápido aumento. En junio, TrendForce pronosticó que la demanda mundial de HBM aumentaría 60% este año.
Carrera desatada
La guerra de los chips de IA está a punto de acelerar aún más ese crecimiento el próximo año. AMD acaba de lanzar un nuevo producto con la esperanza de competir con Nvidia. Una escasez global junto con una fuerte demanda de una alternativa más asequible a las ofertas de Nvidia significa una oportunidad lucrativa para rivales capaces de ofrecer chips con especificaciones comparables. Pero disputar el dominio de Nvidia, cuya clave reside no sólo en el chip físico en sí, sino en su ecosistema de software, que incluye herramientas de desarrollo y modelos de programación populares, es otra historia. Replicar eso llevará años.
Es por eso que el hardware (y la cantidad de HBM incluidos en cada nuevo chip) ahora serán aún más importantes para los contendientes que quieran enfrentarse a Nvidia. Aumentar la capacidad de memoria mediante el uso de HBM actualizados es una de las pocas formas de ganar competitividad a corto plazo. Por ejemplo, el último acelerador MI300 de AMD utiliza ocho HBM, más que los cinco o seis de los productos de Nvidia.
Históricamente, los chips han sido una industria cíclica propensa a auges y caídas dramáticas. Si sigue el rumbo actual, un aumento duradero de la demanda de nuevos productos debería hacer que las futuras recesiones sean menos turbulentas que en el pasado.