Con el acelerador de inferencia Maia 200, Microsoft optimiza cargas de IA dentro del entorno operativo de Azure. Es una solución diseñada para mejorar la economía de la generación de tokens con inteligencia artificial (IA), ya que así se hace más eficiente.
Se debe tener en cuenta, que está construido sobre el proceso de 3nm de TSMC con núcleos tensoriales nativos FP8/FP4. A lo que se suma, un nuevo sistema de memoria rediseñado además de motores de movimiento de datos para mantener los modelos.
“Dicha arquitectura brinda un rendimiento escalable, para clústeres de inferencia con alta densidad, mientras se reduce el consumo de energía. Es así que, el costo total de atención al consumo de energía disminuye”, compartió Scott Guthrie, vicepresidente ejecutivo de Cloud + IA en Microsoft.
Es así como, Microsoft optimiza cargas de IA garantizando una disponibilidad rápida y fluida en el centro de datos. Es decir, desde el principio para construir una validación temprana de algunos de los elementos más complejos del sistema, para crear valor.
Por su parte, la integración nativa con el plano de control de Azure brinda mejoras en seguridad, telemetría, diagnóstico y capacidades de gestión. Eso, tanto a nivel de chip como de rack, algo que maximiza la fiabilidad y el tiempo de actividad para las cargas.
“La era de la inteligencia artificial a gran escala apenas comienza y la infraestructura definirá lo que es posible, por eso tenemos un programa acelerador. El cual se diseñó para ser multigeneracional e invitamos a desarrolladores, startups de IA y académicos a explorar esta solución”, acotó Guthrie.
Con un nuevo acelerador Microsoft optimiza cargas de IA
De hecho, el equipo Superintelligence del proveedor utilizará Maia 200 para generar datos sintéticos, además implementará iniciativas de conocimiento. Otro beneficio de la propuesta, es la aceleración para la generación y filtración de datos de alta calidad.
Con esto, es posible alimentar la formación posterior a través de señales más frescas y que son más específicas. A nivel geográfico, Maia 200 se encuentra desplegado en las regiones de centros de datos en Estados Unidos, Central y West 3 de la compañía.
“A medida que desplegamos Maia 200 a lo largo de nuestra infraestructura global, ya comenzamos a diseñar el futuro. Así, esperamos que cada generación establezca de modo continuo nuevos estándares, ofreciendo un rendimiento y eficiencia cada vez mejores en cargas de IA”, señaló el directivo.
Parte de la integración entre Azure y este nuevo acelerador, contempla un conjunto de herramientas para construir y optimizar modelos. Bajo dicho enfoque, Microsoft optimiza cargas de IA, además se ofrece a los desarrolladores una mejor experiencia.
En resumen, es el acelerador más eficiente de cualquier hiperescalador debido a que ofrece un 30 % de mayor rendimiento por dólar. Finalmente, esto es muy superior al hardware de última generación del propio proveedor, con esto genera un alto valor.
“El tiempo desde el primer silicio hasta el despliegue en racks de centros de datos, se redujo a menos de la mitad. Esto en comparación con los programas enfocados con la infraestructura de inteligencia artificial, así se obtienen tiempos de producción más rápidos y mejoras sostenidas”, concluyó Guthrie.