Todos quieren a NVIDIA. Este fabricante que hasta hace poco identificábamos con el mundo del gaming se ha convertido en absoluto protagonista del segmento de la inteligencia artificial. Sus GPUs especializadas se han convertido en elemento clave del desarrollo de modelos de IA, y ahora todo el mundo está pidiendo más y más chips de este tipo. ¿El problema? No pueden con todo.
NVIDIA no da abasto. Según revelan en Financial Times, la «sed masiva» de chips de NVIDIA para este tipo de proyectos está afectando a todo el mercado de componentes informático. De hecho el interés en esos chips especializados para IA está haciendo que los servidores convencionales estén perdiendo protagonismo.
Los servidores (también) pierden fuelle. No solo el mercado de los PC está de capa caída. Foxconn indicó la semana pasada que los ingresos globales en el área de los servidores caerían este año. Lenovo, que ofreció resultados financieros la pasada semana, también indicó que el 8% de caída en ingresos en el segundo trimestre se debió en gran parte a la pérdida de demanda de sus servidores para proveedores en la nube (CSP) y por la escasez de chips de IA en forma de GPUs.
Quieren triplicar producción. Fuentes cercanas a la compañía indican que en NVIDIA tienen la intención de (al menos) triplicar la producción de su chip H100, el procesador más potente que tienen en la actualidad en este segmento. Así, en 2024 producirían entre 1,5 y 2 millones de chips, lo que representa un salto enorme frente a los 500.000 que habrán fabricado en 2023.
La demanda de chips de IA seguirá creciendo. TSMC es el fabricante de chips más importante del mundo y es el único que fabrica esos chips para NVIDIA. Según sus responsables, la demanda de chips de IA para servidores crecerá cerca del 50% al año durante los próximos cinco años, pero eso no será suficiente para compensar el impacto de la actual situación económica.
La nube ya no quiere tantos servidores normales. En EEUU los principales protagonistas de infraestructura en la nube —Microsoft, Amazon y Google— han cambiado de foco y están tratanto de reforzar su infraestructura de IA. Según Counterpoint Research el gasto en infraestructuras crecerá solo un 8% este año, cuando en 2022 lo hizo un 25%. Entre los culpables, cómo no, está la inflación.
Una actualización compleja y costosa. El problema, como apuntan los expertos, es que para que esos proveedores actualicen sus servidores para lograr convertirlos en servidores de IA hace falta actualizar muchos más componentes además de su GPU. Eso no estaba previsto en los presupuestos de estas empresas, así que ese tipo de expansión «está canibalizando otros gastos», aseguraba Angela Hsiang, de la firma de inversión KGI en Taipei.
Meta frena la inversión en servidores que no sean de IA. TrendForce espera que este año la distribución global de servidores convencionales (no IA) caiga en un 6% y que en 2024 haya tan solo un ligero crecimiento del 2% o 3%. En su análisis indican que Meta ha tenido gran impacto en la caída porque ha rebajado en más de un 10% su inversión en ese área para centrarse en hardware para IA.
Cuello de botella hasta 2025. El problema no solo es la producción de GPUs especializadas, sino de las memorias HBM —fabricadas por SK Hynix y Samsung— que usan esos chips. Brady Wang, un analista de Counterpoint asegura que este cuello de botella no se resolverá hasta finales de 2024.
Más espacio, por favor. Otra de las consecuencias de esa transformación de los centros de datos está en las propias necesidades de estos servidores especializados en IA, que necesitan placas base igualmente específicas, pero que además necesitan racks de mayor tamaño para poder situar estas GPUs. Los requisitos para las fuentes de alimentación y los sistemas de refrigeración también cambian: estos chips generan más calor que los que está presentes en servidores convencionales.