CES 2026: AMD представляет стойку Helios AI и графические процессоры Instinct MI400 нового поколения

amd,helios,instinct mi400,ai,gpu,ces 2026

AMD представила Helios, AI-платформу стоечного масштаба, и GPU Instinct MI400 на CES 2026. Новинки обеспечивают экзафлопсную производительность, используют 2нм техпроцесс и предназначены для корпоративных и дата-центров AI.

Искусственный интеллект стал центральной темой CES 2026, где Лиза Су из AMD представила новые подробности о своей AI-платформе Helios стоечного масштаба и GPU Instinct MI400-серии следующего поколения, подчеркнув стремление компании масштабировать искусственный интеллект и высокопроизводительные вычисления (HPC) от корпоративных центров обработки данных до гипермасштабных развертываний. Су назвала её “лучшей в мире AI-стойкой”.

В основе анонса AMD лежит Helios, первое системное решение компании стоечного масштаба для рабочих нагрузок AI и HPC. Построенная на базе будущих процессоров EPYC Venice на архитектуре Zen 6 от AMD, Helios объединяет 72 ускорителя Instinct MI455X, обеспечивающих в совокупности 31 ТБ памяти HBM4 и общую пропускную способность 1,4 ПБ/с. AMD заявляет, что платформа способна обеспечить до 2,9 экзафлопс FP4 для логического вывода AI и 1,4 экзафлопс FP8 для обучения AI, что позиционирует её для самых требовательных крупномасштабных развертываний AI.

Благодаря своим значительным требованиям к мощности и охлаждению, Helios разработана для современных центров обработки данных AI с развитой инфраструктурой. AMD описала систему как основу для AI-кластеров следующего поколения, а не как прямую замену для устаревших объектов.

Серия Instinct MI400 нацелена на задачи, требующие определенной точности

Наряду с Helios, AMD представила своё более широкое семейство ускорителей Instinct MI400X, которые станут первыми GPU, произведенными с использованием 2-нм техпроцесса (N2) TSMC. Линейка охватывает несколько вариантов, адаптированных к конкретным рабочим нагрузкам и потребностям в точности, и все они основаны на архитектуре CDNA 5.

MI440X и MI455X ориентированы на AI-нагрузки с низкой точностью, такие как FP4, FP8 и BF16, в то время как ранее анонсированный MI430X поддерживает как AI, так и традиционные HPC-задачи с полной точностью FP32 и FP64. Специализируя каждый ускоритель для определенного диапазона точности, AMD заявляет, что может уменьшить избыточную логику и повысить энергоэффективность и экономическую эффективность.

MI440X также лежит в основе новой платформы Enterprise AI от AMD — стандартного сервера стоечного исполнения, объединяющего один процессор EPYC Venice с восемью GPU MI440X. AMD позиционирует эту систему как локальное решение для корпоративного обучения AI, точной настройки и логического вывода, совместимое с существующими проектами электропитания и охлаждения центров обработки данных.

Для суверенного AI и научных вычислений AMD также предложит платформу, построенную на процессорах EPYC Venice-X, которые добавляют дополнительную кэш-память и производительность в однопоточном режиме, в сочетании с ускорителями MI430X для рабочих нагрузок со смешанной точностью.

Новые межсоединения для масштабирования AI

CES 2026: AMD представляет стойку Helios AI и графические процессоры Instinct MI400 нового поколения

AMD подтвердила, что ускорители MI430X, MI440X и MI455X будут поддерживать Infinity Fabric, а также новое соединение UALink для расширенной связи, что сделает их первыми ускорителями, совместимыми с новым стандартом. Однако более широкое внедрение UALink будет зависеть от партнеров по экосистеме, поставляющих коммутационные микросхемы позднее в 2026 году.

Для горизонтального масштабирования системы Helios будут поддерживать Ultra Ethernet, используя существующие и будущие адаптеры, такие как AMD Pensando Pollara 400G и Vulcano 800G NIC. Такой подход позволяет центрам обработки данных развертывать Helios, используя проверенную инфраструктуру на основе Ethernet, готовясь при этом к более продвинутым AI-фабрикам.

Вместе платформа Helios и графические процессоры серии Instinct MI400 сигнализируют о намерении AMD агрессивно конкурировать на каждом уровне стека AI — от корпоративных серверов до центров обработки данных AI экзамасштаба — по мере того, как спрос на вычислительные мощности продолжает расти.

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
8/6