Inicio » Management » Microsoft compra el doble de chips de IA a Nvidia que sus rivales tecnológicos

Microsoft compra el doble de chips de IA a Nvidia que sus rivales tecnológicos

El mayor patrocinador y socio de OpenAI compra casi medio millón de GPU este año en la carrera por crear sistemas de inteligencia artificial.

Microsoft ha comprado este año el doble de chips insignia de Nvidia que cualquiera de sus mayores rivales en EE.UU. y China, mientras el mayor inversor de OpenAI aceleraba su inversión en infraestructura de inteligencia artificial.

Los analistas de Omdia, una consultora tecnológica, calculan que Microsoft compró 485.000 chips «Hopper» de Nvidia este año. Esto sitúa a Microsoft muy por delante de Meta, el siguiente mayor cliente de Nvidia en EE.UU., que compró 224.000 chips Hopper, así como de sus rivales de computación en nube Amazon y Google.

Dado que la demanda de las unidades de procesamiento gráfico más avanzadas de Nvidia ha superado a la oferta durante gran parte de los dos últimos años, el acaparamiento de chips de Microsoft le ha dado ventaja en la carrera por construir la próxima generación de sistemas de IA.

Este año, las grandes empresas tecnológicas han gastado decenas de miles de millones de dólares en centros de datos que funcionan con los últimos chips de Nvidia, que se han convertido en el producto de moda en Silicon Valley desde que el debut de ChatGPT hace dos años desencadenó un aumento sin precedentes de la inversión en IA.

La infraestructura en la nube Azure de Microsoft se utilizó para entrenar el último modelo o1 de OpenAI, que compite con el resurgimiento de Google, nuevas empresas como Anthropic y xAI de Elon Musk, y rivales chinos por el dominio de la próxima generación de computación.

Amazon y Google, que junto con Meta están intensificando el despliegue de sus propios chips de IA personalizados como alternativa a los de Nvidia, compraron 196.000 y 169.000 chips Hopper respectivamente, según los analistas.

Para calcular sus estimaciones, Omdia analiza el gasto de capital, los envíos de servidores y la inteligencia de la cadena de suministro que las empresas hacen públicos.

El valor de Nvidia, que está empezando a lanzar Blackwell, el sucesor de Hopper, se ha disparado hasta superar los 3 billones de dólares este año, a medida que las grandes empresas tecnológicas se apresuran a montar clusters cada vez más grandes de sus GPU.

Sin embargo, la extraordinaria subida de las acciones ha disminuido en los últimos meses debido a la preocupación por la ralentización del crecimiento, la competencia de los chips de IA personalizados de las grandes empresas tecnológicas y la posible interrupción de su negocio en China por la nueva administración de Donald Trump en Estados Unidos.

ByteDance y Tencent han surgido como dos de los mayores clientes de Nvidia este año, a pesar de las restricciones del gobierno estadounidense sobre las capacidades de los chips de IA estadounidenses que pueden venderse en China.

Microsoft, que ha invertido 13.000 millones de dólares en OpenAI, ha sido la más agresiva de las grandes empresas tecnológicas estadounidenses en la construcción de infraestructuras de centros de datos, tanto para ejecutar sus propios servicios de IA, como su asistente Copilot, como para alquilarlos a clientes a través de su división Azure.

Los pedidos de chips de Nvidia de Microsoft son más del triple que los de la misma generación de procesadores de IA de Nvidia que compró en 2023, cuando Nvidia se apresuraba a aumentar la producción de Hopper tras el gran éxito de ChatGPT.

«Las buenas infraestructuras de centros de datos son proyectos muy complejos que requieren mucho capital», explica Alistair Speirs, director senior de Infraestructura Global Azure de Microsoft, al Financial Times. «Llevan varios años de planificación. Por eso es importante prever dónde estará nuestro crecimiento con un poco de margen».

Las empresas tecnológicas de todo el mundo gastarán unos 229.000 millones de dólares en servidores en 2024, según Omdia, encabezadas por los 31.000 millones de dólares en gasto de capital de Microsoft y los 26.000 millones de Amazon. Los 10 principales compradores de infraestructuras de centros de datos -entre los que ahora se incluyen los relativamente recién llegados xAI y CoreWeave- representan el 60% de la inversión mundial en potencia informática.

Vlad Galabov, director de investigación sobre la nube y los centros de datos de Omdia, afirma que alrededor del 43% del gasto en servidores corresponderá a Nvidia en 2024.

«Las GPU de Nvidia se llevaron una parte tremendamente alta del capex en servidores», afirmó. «Estamos cerca del pico».

Aunque Nvidia sigue dominando el mercado de chips de IA, su rival de Silicon Valley, AMD, ha ido abriéndose camino. Meta compró 173.000 chips MI300 de AMD este año, mientras que Microsoft adquirió 96.000, según Omdia.

Las grandes empresas tecnológicas también han incrementado el uso de sus propios chips de IA este año, en un intento de reducir su dependencia de Nvidia. Google, que lleva una década desarrollando sus «unidades de procesamiento tensorial» o TPU, y Meta, que presentó la primera generación de su chip Meta Training and Inference Accelerator el año pasado, desplegaron cada una alrededor de 1,5 millones de sus propios chips.

Amazon, que está invirtiendo fuertemente en sus chips Trainium e Inferentia para clientes de computación en nube, ha desplegado unos 1,3 millones de estos chips este año. Amazon anunció este mes que planea construir un nuevo clúster con cientos de miles de sus últimos chips Trainium para Anthropic, un rival de OpenAI en el que Amazon ha invertido 8.000 millones de dólares, para entrenar la próxima generación de sus modelos de IA.

Microsoft, sin embargo, está mucho antes en su esfuerzo por construir un acelerador de IA que compita con el de Nvidia, con sólo unos 200.000 de sus chips Maia instalados este año.

Speirs dijo que el uso de los chips de Nvidia aún requería que Microsoft hiciera inversiones significativas en su propia tecnología para ofrecer un servicio «único» a los clientes.

«Construir la infraestructura de IA, según nuestra experiencia, no consiste sólo en tener el mejor chip, sino también los componentes de almacenamiento adecuados, la infraestructura adecuada, la capa de software adecuada, la capa de gestión de host adecuada, la corrección de errores y todos estos otros componentes para construir ese sistema», dijo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com