Новая платформа Nvidia Rubin демонстрирует, что память больше не является «второстепенным фактором» в сфере искусственного интеллекта.

nvidia,rubin,искусственный интеллект,память,ces 2026,дефицит чипов

Nvidia представила платформу Rubin на CES 2026, чтобы решить проблему дефицита памяти для ИИ. Новая архитектура обещает высокую эффективность и снижение затрат на обучение моделей. Компания также анонсировала Inference Context Memory Storage Platform.

Бум спроса на искусственный интеллект и сопутствующая нехватка памяти – главная тема в отрасли. На выставке CES 2026 в Лас-Вегасе, штат Невада, это также стало ключевым моментом в последних крупных релизах продуктов Nvidia.

В понедельник компания официально представила платформу Rubin, состоящую из шести чипов, объединенных в один суперкомпьютер с искусственным интеллектом. Представители компании утверждают, что она более эффективна, чем модели Blackwell, и отличается увеличенной вычислительной мощностью и пропускной способностью памяти.

«Rubin появляется в самый подходящий момент, поскольку спрос на вычисления для искусственного интеллекта, как для обучения, так и для логического вывода, стремительно растет», — заявил генеральный директор Nvidia Дженсен Хуанг в пресс-релизе.

Продукты на базе Rubin будут доступны у партнеров Nvidia во второй половине 2026 года, сообщили руководители компании, назвав AWS, Anthropic, Google, Meta, Microsoft, OpenAI, Oracle и xAI среди компаний, которые, как ожидается, внедрят Rubin.

«Повышение эффективности платформы NVIDIA Rubin представляет собой тот прогресс в инфраструктуре, который обеспечивает больший объем памяти, лучшее рассуждение и более надежные результаты», — заявил генеральный директор Anthropic Дарио Амодей в пресс-релизе.

Графические процессоры стали дорогим и дефицитным товаром, поскольку быстрорастущие проекты центров обработки данных истощают глобальные запасы микросхем памяти. Согласно недавнему отчету Tom’s Hardware, гигантским проектам центров обработки данных требуется примерно 40% мирового объема производства микросхем DRAM. Дефицит достиг такой степени, что вызывает повышение цен на бытовую электронику и, по слухам, также влияет на цены графических процессоров. Согласно отчету южнокорейского новостного агентства Newsis, производитель чипов AMD, как ожидается, повысит цены на некоторые свои графические процессоры в конце этого месяца, а Nvidia якобы последует этому примеру в феврале.

Nvidia сосредоточилась на том, чтобы избежать этой нехватки чипов. Только в прошлом месяце технологический гигант совершил свою крупнейшую покупку, приобретя компанию Groq, производителя чипов, специализирующегося на логическом выводе.

Теперь, с продуктом, который обещает высокий уровень логического вывода и возможность обучать сложные модели с меньшим количеством чипов и по более низкой цене, компания, возможно, надеется ослабить некоторые из этих вызванных дефицитом опасений в отрасли. Руководители компании сообщили, что Rubin обеспечивает десятикратное снижение затрат на токены логического вывода и четырехкратное сокращение количества графических процессоров, используемых для обучения моделей, основанных на архитектуре искусственного интеллекта, называемой mixture of experts (MoE), такой как DeepSeek.

В дополнение к этому компания также представляет новый класс инфраструктуры хранения данных, созданный специально для логического вывода, под названием Inference Context Memory Storage Platform.

Agentic AI, новая модная тенденция в технологическом мире в течение последнего года или около того, повысила важность памяти AI. Вместо того чтобы просто отвечать на отдельные вопросы, теперь ожидается, что системы AI будут запоминать гораздо больше информации о предыдущих взаимодействиях, чтобы автономно выполнять некоторые задачи, что означает, что во время этапа логического вывода необходимо управлять большим количеством данных.

Новая платформа направлена на решение этой проблемы путем добавления нового уровня памяти для логического вывода, для хранения некоторых контекстных данных и расширения емкости памяти графического процессора.

«Узкое место смещается от вычислений к управлению контекстом», — сказал старший директор Nvidia по решениям для инфраструктуры HPC и AI hyperscale Дион Харрис. «Для масштабирования хранилище больше не может быть второстепенным».

«Поскольку логический вывод масштабируется до гигамасштабов, контекст становится первоклассным типом данных, и новая платформа хранения памяти контекста логического вывода Nvidia идеально подходит для его поддержки», — заявил Харрис.

Время покажет, сможет ли эффективность успешно решить некоторые проблемы, вызванные высоким спросом на чипы. Но даже если проблема с памятью будет решена, индустрия искусственного интеллекта продолжит сталкиваться с другими узкими местами в своем беспрецедентном росте, в первую очередь из-за огромной нагрузки, которую центры обработки данных оказывают на электросети США.

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
8/6