Microsoft quiere reducir su dependencia con NVIDIA y que sus centros de datos no sean un agujero de dinero: su solución es Maia 200
Microsoft ha presentado el Maia 200, su segundo acelerador de IA de diseño propio orientado a la inferencia de modelos, es decir, a ejecutarlos una vez entrenados. El chip, fabricado en proceso de 3 nanómetros de TSMC, busca mejorar la eficiencia y reducir los costes operativos de los centros de datos y el resto de servicios dependientes de la IA de la compañía. Bajo estas líneas te contamos todos los detalles.
Qué hace especial a este chip. Según cuenta la compañía, el Maia 200 integra más de 140.000 millones de transistores y está optimizado para trabajar con modelos de lenguaje de gran tamaño. Microsoft promete un 30% más de rendimiento por dólar que la generación anterior, el Maia 100. La compañía afirma además que supera en rendimiento FP4 al Trainium3 de Amazon y al TPU de séptima generación de Google en precisión FP8.

Imagen: Microsoft
Por qué importa la inferencia. La inferencia es el proceso de ejecutar un modelo ya entrenado para generar respuestas, y comienza a ser un gasto cada vez más importante para las empresas de IA. A diferencia del entrenamiento de modelos, que requiere potencia bruta de cálculo durante períodos concentrados, la inferencia es un proceso que debe funcionar de manera continua y eficiente para no comprometer la experiencia de millones de usuarios.
Características técnicas destacadas. El chip incorpora 216 GB de memoria HBM3e con un ancho de banda de 7 TB/s y 272 MB de SRAM integrada. Según la compañía, el chip puede alcanzar más de 10 petaflops en precisión de 4 bits (FP4) y aproximadamente 5 petaflops en 8 bits (FP8), todo ello con un consumo de 750W. Tal y como ha compartido Microsoft, también han diseñado un sistema de memoria jerárquico que promete distribuir las cargas de trabajo de manera más inteligente entre la SRAM y la HBM para mantener los modelos alimentados con datos en todo momento.
Dónde y para qué se usará. Microsoft ya ha comenzado a desplegar el Maia 200 en su centro de datos de Azure US Central, cerca de Des Moines (Iowa), con la región US West 3 en Phoenix como siguiente destino. El chip se utilizará para ejecutar modelos como GPT-5.2 de OpenAI en servicios como Microsoft 365 Copilot y Microsoft Foundry. El equipo de Superinteligencia de Microsoft también lo empleará para generar datos sintéticos y tareas de aprendizaje por refuerzo.
Menor dependencia. Con el Maia 200, Microsoft se suma a una tendencia creciente entre las grandes tecnológicas: diseñar sus propios aceleradores para reducir la dependencia de NVIDIA, cuyos chips dominan el mercado y tienen un coste elevado. Google dispone de sus TPU, Amazon tiene Trainium, y ahora Microsoft refuerza su hardware con este segundo chip tras el Maia 100 lanzado en 2023. Según las especificaciones, el Maia 200 funciona a casi la mitad del consumo energético que el NVIDIA Blackwell B300 Ultra (750W frente a 1400W), aunque los dos chips están diseñados para casos de uso diferentes (inferencia vs. entrenamiento + inferencia).
Entre líneas. El lanzamiento del Maia 200 llega realmente con retraso. Según apuntan desde Tom’s Hardware, el chip conocido internamente como Braga, estaba previsto para 2025 y podría haber salido antes que el B300 de NVIDIA. El mensaje de Microsoft insiste repetidamente en la eficiencia y el rendimiento por dólar, por lo que se alinea con la estrategia de la compañía de mantener a raya los costes operativos de la IA todo lo posible. También coincide con las recientes declaraciones de Satya Nadella, CEO de Microsoft, sobre la necesidad de que la industria mantenga el «permiso social» para seguir expandiendo sus centros de datos.
Y ahora qué. Microsoft ya está trabajando en futuras generaciones del Maia y, según comparte el medio Tom’s Hardware, el próximo chip podría fabricarse con el proceso 18A de Intel Foundry. Mientras tanto, el despliegue del Maia 200 permitirá a la compañía probar su capacidad para competir con Amazon y Google en infraestructura propia, mientras contiene los costes operativos de ejecutar sus servicios de IA a gran escala.
Imagen de portada | Microsoft







