“En términos prácticos, Maia 200 puede ejecutar sin esfuerzo los modelos más grandes de hoy, con mucho ganancia para modelos aún más grandes en el futuro”, afirma Microsoft.
Maia incluso suministra datos a los modelos de guisa diferente, a través de lo que Microsoft fogosidad un subsistema de memoria rediseñado que cuenta con un motor especializado de ataque directo a la memoria (DMA) y una memoria estática de ataque fortuito (SRAM), así como un tejido de red en chip (NoC) especializado. Todo esto permite el movimiento de datos de gran orondo de bandada y al mismo tiempo aumenta el rendimiento del token.
Diseñado para la heterogeneidad y la IA multimodal
Microsoft dice que diseñó específicamente Maia 200 teniendo en mente los LLM modernos; Los clientes con visión de futuro, dice, buscan no solo mensajes de texto, sino incluso ataque a capacidades multimodales (sonido, imágenes, video) que respalden capacidades de razonamiento más profundas, agentes de múltiples pasos y, eventualmente, tareas autónomas de IA.
Como parte de su heterogénea infraestructura de IA, Microsoft dice que Maia 200 servirá para múltiples modelos, incluida la última comunidad GPT-5.2 de OpenAI. Se integra perfectamente con Microsoft Azure, y Microsoft Foundry y Microsoft 365 Copilot incluso se beneficiarán del chip. El equipo de superinteligencia de la empresa incluso planea utilizar Maia 200 para educación por refuerzo (RL) y concepción de datos sintéticos para mejorar los modelos internos.
Desde la perspectiva de las especificaciones, Maia 200 supera a Trainium e Inferentia de Amazon y a las TPU v4i y v5i de Google, señaló Scott Bickleymiembro asesor del Info-Tech Research Group. Se produce en un nodo de 3 nm, en comparación con los nodos de 7 nm o 5 nm de los chips de Amazon y Google, y incluso muestra un rendimiento superior en capacidades de computación, interconexión y memoria, dijo.
Sin secuestro, señaló, “si aceptablemente estos números son impresionantes, los clientes deben demostrar el rendimiento actual interiormente de la pila de Azure ayer de medrar las cargas de trabajo fuera de Nvidia, por ejemplo”. Todavía deben comprobar de que parte del capital del 30% obtenido por Microsoft se transfiera al cliente a través de sus cargos de suscripción a Azure, añadió.
