Как и ожидалось, компания объявила на конференции AWS Re:Invent о следующем поколении своего AI‑чипа‑конкурента Nvidia — Trainium3, который в четыре раза быстрее и при этом потребляет меньше энергии, чем текущий Trainium2. Джасси раскрыл несколько деталей о текущем Trainium в посте на X, показывающих, почему компания так оптимистично относится к чипу.
Он отметил, что бизнес Trainium2 «обладает значительным спросом, представляет собой бизнес с многомиллиардным годовым оборотом, в производстве более 1 млн чипов, и более 100 000 компаний используют его в качестве основной части использования Bedrock сегодня».
Bedrock – это инструмент Amazon для разработки AI‑приложений, позволяющий компаниям выбирать из множества AI‑моделей.
Джасси сказал, что AI‑чип Amazon выигрывает среди огромного списка облачных клиентов, потому что он «обладает преимуществами цены и производительности над другими вариантами GPU, которые представляют собой убедительное предложение». Иными словами, он считает, что он работает лучше и дешевле, чем те «другие GPU», которые существуют на рынке.
Это, конечно, классический подход Amazon — предлагать собственные домашние технологии по более низким ценам.
Кроме того, генеральный директор AWS Мэтт Гарман в интервью с CRN поделился дополнительными сведениями об одном клиенте, отвечающем за значительную часть этих миллиардов дохода: без сюрпризов, это Anthropic.
«Мы наблюдаем огромный спрос на Trainium2, особенно со стороны наших партнёров из Anthropic, с которыми мы объявили проект Rainier, где более 500 000 чипов Trainium2 помогают им создавать новые поколения моделей для Claude», — сообщил Гарман.
Project Rainier — самый амбициозный AI‑кластер серверов Amazon, разбросанный по нескольким дата‑центрам в США и созданный для поддержки растущих потребностей Anthropic. Он был запущен в октябре. Amazon, конечно, является крупным инвестором Anthropic. В обмен Anthropic сделала AWS своим основным партнёром по обучению моделей, хотя теперь её сервисы доступны и в облаке Microsoft через чипы Nvidia.
OpenAI теперь также использует AWS наряду с облаком Microsoft. Однако, как заявила облачная гигант, партнёрство с OpenAI вряд ли существенно повлияло на доходы от Trainium, поскольку AWS запускает их на чипах и системах Nvidia.
Действительно, лишь несколько американских компаний — Google, Microsoft, Amazon, Meta — обладают всеми инженерными составляющими: экспертизой в проектировании кремниевых чипов, собственными высокоскоростными соединениями и сетевыми технологиями, чтобы попытаться реально конкурировать с Nvidia. (Помните, что в 2019 году Nvidia захватила рынок высокопроизводительных сетевых решений, когда её генеральный директор Дженсон Хуанг предложил более выгодную цену, чем Intel и Microsoft, за покупку производителя инфинитбенд‑оборудования Mellanox.)
Кроме того, AI‑модели и программное обеспечение, разработанные для работы на чипах Nvidia, зависят от фирменного набора программ CUDA (Compute Unified Device Architecture). CUDA позволяет приложениям использовать GPU для параллельных вычислений и других задач. Как и в прошлой войне процессоров Intel против SPARC, переписать AI‑приложение под чип, не поддерживающий CUDA, нелёгкая задача по данным Reuters.
Тем не менее у Amazon, вероятно, есть план. Как мы уже сообщали ранее, следующее поколение AI‑чипа компании, Trainium4, будет построено так, чтобы взаимодействовать с GPU Nvidia в одной системе. Остаётся неизвестным, поможет ли это отнять у Nvidia часть бизнеса или лишь укрепит её доминирование в облаке AWS.
Для Amazon это может быть несущественно. Если уже сейчас Trainium2 обеспечивает многомиллиардные доходы, а следующее поколение будет ещё лучше, этого уже достаточно, чтобы считать их победителями.
Автор – Julie Bort




