Microsoft anunció el lanzamiento de Maia 200, un chip acelerador de inteligencia artificial (IA) diseñado para potenciar el razonamiento moderno y manejar modelos de lenguaje extensos. La compañía asegura que este desarrollo marca un avance significativo en eficiencia y velocidad.
El nuevo chip está optimizado para inferencias de IA, ofreciendo el rendimiento por dólar más eficiente gracias a su arquitectura de silicio avanzada y un sistema que maximiza la eficiencia energética en operaciones complejas.
Rendimiento superior de Maia 200
Maia 200 proporciona 10,1 PFLOPS en precisión de 4 bits (FP4) y aproximadamente 5 PFLOPS en 8 bits (FP8). Según Microsoft, su rendimiento FP4 es tres veces mayor que el Amazon Trainium de tercera generación.
Además, supera en rendimiento FP8 al TPU de séptima generación de Google, consolidando a Maia 200 como uno de los chips más potentes del mercado para inferencias de inteligencia artificial.
Tecnología avanzada para operaciones intensivas
El chip combina 272MB de SRAM con 216GB de HBM3e, proporcionando 7 TB/s de ancho de banda HBM. Esto permite operaciones con uso intensivo de datos mientras reduce el tráfico fuera del chip, aumentando la eficiencia energética general.
"Un nodo Maia 200 puede ejecutar los modelos más grandes disponibles actualmente, con un amplio margen para modelos aún mayores en el futuro", afirmó Microsoft, destacando la escalabilidad de su tecnología.
Implementación y aplicaciones de Maia 200
Maia 200 ya está desplegado en la región de centros de datos US Central de Microsoft. Los sistemas actuales impulsan modelos del equipo de Microsoft Superintelligence, aceleran proyectos de Microsoft Foundry y respaldan a Microsoft Copilot.
Esto coloca a Microsoft a la vanguardia en soluciones de inteligencia artificial, ofreciendo herramientas para desarrollos más rápidos y eficientes, consolidando su liderazgo tecnológico en el sector.