ОС и софт

Microsoft представила новый ИИ-ускоритель Maia 200 с рекордным объемом памяти

Компания Microsoft анонсировала 3-нанометровый ИИ-ускоритель Maia 200, предназначенный для инференса. Он оснащён специализированными тензорными ядрами с поддержкой форматов FP8 и FP4, обновлённой системой памяти, включающей 216 ГБ HBM3e (пропускная способность 7 ТБ/с) и 272 МБ SRAM, а также DMA-движком, оптимизированной сетевой инфраструктурой (NOC) и «механизмами передачи данных, которые обеспечивают быстрое и эффективное выполнение крупномасштабных моделей». Количество транзисторов в Maia 200 превышает 140 миллиардов.

Производительность в формате FP4 составляет свыше 10 петафлопс, что втрое выше, чем у решения Amazon Trainium3, но примерно вдвое ниже, чем у платформы NVIDIA Blackwell. В вычислениях FP8 показатель превышает 5 петафлопс, немного опережая Google TPU v7 Ironwood и снова отставая от Blackwell примерно в два раза. Тепловыделение (TDP) чипа достигает 750 Вт, а для охлаждения применяется система жидкостного охлаждения (СЖО) и фирменные теплообменники второго поколения.

Источник изображений: Microsoft

На системном уровне в Maia 200 используется двухуровневая унифицированная сетевая архитектура, основанная на стандартном Ethernet. Специальный транспортный протокол Maia AI, применяемый как для вертикального, так и для горизонтального масштабирования, в сочетании с глубоко интегрированным сетевым адаптером обеспечивают высокую производительность, отказоустойчивость и экономическую эффективность без необходимости в проприетарных межсоединениях. Каждый акселератор обладает выделенным интерфейсом с дуплексной пропускной способностью 2,8 ТБ/с. Гарантируется стабильная и высокая производительность коллективных операций в кластерах, объединяющих до 6144 ускорителей. Внутри каждого вычислительного узла четыре чипа Maia 200 взаимодействуют напрямую, без участия коммутатора.

«Система Maia 200 также демонстрирует наивысшую эффективность в выполнении задач искусственного интеллекта среди всех решений, когда-либо внедрявшихся Microsoft, предлагая на 30 % более выгодное соотношение производительности к стоимости по сравнению с самым современным оборудованием в нашем парке», — отметили в компании. На данный момент Maia 200 уже функционирует в регионе US Central неподалёку от Де-Мойна (штат Айова), а в перспективе новые ускорители планируется развернуть в регионе US West 3, около Финикса (штат Аризона).

Корпорация также анонсировала предварительный выпуск комплекта разработки (SDK) для Maia, который содержит полный набор инструментов для создания и оптимизации больших языковых моделей под платформу Maia 200. В SDK входит широкий спектр функций, включая интеграцию с PyTorch, компилятор Triton, оптимизированную библиотеку ядер, а также возможности для низкоуровневого программирования на Maia.

Как сообщила Microsoft, Maia 200 будет задействована в рамках её гетерогенной инфраструктуры ИИ для работы с разнообразными моделями, в том числе с GPT-5.2 от OpenAI, что обеспечит экономическую эффективность для сервисов Microsoft Foundry и Microsoft 365 Copilot. Группа Microsoft Superintelligence планирует использовать Maia 200 для генерации синтетических данных и обучения с подкреплением с целью совершенствования собственных моделей нового поколения. Применение Maia 200 в процессах создания синтетических данных позволит ускорить формирование и отбор высококачественной информации, адаптированной под конкретные предметные области.

Источник:

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории