На GTC 2026 Nvidia доработала платформу Vera Rubin, добавив стойки с процессорами Vera, чипы для инференса, свежую архитектуру хранилищ, операционку для инференса, альянсы открытых моделей и софт для защиты агентов.
Компания Nvidia показала платформу Vera Rubin в январе на CES 2026. На GTC 2026 она сильно расширила возможности. Теперь в составе семь чипов и пять видов стоек, объединенных в Vera Rubin POD: 40 стоек, 1,2 квинтиллиона транзисторов, порядка 20 000 кристаллов Nvidia, 1152 GPU Rubin, 60 экфлопс вычислений и 10 петабайт в секунду масштабируемой пропускной способности.
Стойка NVL72 выступает главным вычислителем POD
В центре Vera Rubin NVL72 лежит стойка как базовый вычислительный блок. В нее входит 72 GPU Rubin, 36 CPU Vera, SuperNIC ConnectX-9 и DPU BlueField-4, распределенные по 18 вычислительным лоткам и 9 лоткам коммутаторов NVLink. Всего в одной стойке шириной 19 дюймов Nvidia насчитывает 1,3 миллиона отдельных деталей и около 1300 чипов, а вес достигает 4000 фунтов.
По словам Nvidia, такая стойка дает до 4-кратный прирост производительности обучения и 10-кратный для инференса на ватт по сравнению с Blackwell. NVLink шестого поколения обеспечивает 3,6 ТБ/с на GPU и 260 ТБ/с по всей стойке. Основа — четыре модульных картриджа с медными кабелями, всего 5000 кабелей длиной свыше двух миль.
Среди ключевых улучшений, как отметил CEO Дженсен Хуанг, — сборка. Вычислительные лотки лишены кабелей, шлангов и вентиляторов. Вместо обычной проводки стоит средняя плата PCB, что сокращает время сборки лотка с двух часов до пяти минут.
Rubin Ultra масштабируется до 576 и 1152 GPU
Выше NVL72 идут два уровня масштабирования. Vera Rubin Ultra NVL576 применяет новую двухуровневую топологию NVLink all-to-all, связывая восемь стоек NVL72 — по 72 GPU Rubin Ultra в каждой — в домен NVLink на 576 GPU через медные и оптические соединения. Nvidia собрала прототип Polyphe на базе старой архитектуры GB200.
Дальше представлена стойка Kyber, удваивающая домен NVLink до 144 GPU на стойку. Вместо горизонтальных лотков — вертикальные слои: спереди вычисления с четырьмя GPU Rubin Ultra и двумя CPU Vera, сзади средняя плата и NVLink-бэкплейн. Безкабельный дизайн резко укорачивает монтаж. Восемь Kyber образуют NVL1152 с 1152 GPU. Nvidia видит в Kyber базу для следующей архитектуры Feynman. Для Rubin Ultra доступны три варианта: NVL72, NVL144 и NVL576.
Один Rubin Ultra выдает 100 петафлопс в формате FP4. GPU собрана из четырех вычислительных кристаллов по 800+ мм² каждый плюс 16 стеков HBM4e на терабайт памяти. Полная система NVL144 Kyber по Nvidia достигает 15 экфлопс FP4.
Специальные стойки CPU решают пробелы в агентных системах ИИ
Новая стойка Vera CPU вмещает 256 жидкостно-охлаждаемых процессоров Vera, 64 DPU BlueField-4, свыше 22 500 ядер и 400 ТБ памяти. Одна стойка держит более 22 500 одновременных окружений для обучения с подкреплением или песочниц агентов. Причина в том, что агентные ИИ не живут только на GPU: вызов инструментов, SQL-запросы, компиляция и выполнение в песочницах требуют CPU.
Процессор Vera несет 88 ядер Arm Olympus собственной разработки, память LPDDR5X с 1,2 ТБ/с пропускной способности и NVLink C2C для прямой связи с GPU Rubin, как указано в анонсе CPU от Nvidia.
Groq 3 LPX обеспечивает Nvidia выделенный конвейер инференса
Один из ярких анонсов — итог почти-поглощения Groq: Groq 3 LPX вводит выделенный пайплайн инференса. Стойка содержит 32 вычислительных лотка по восемь LPU, соединенных прямым чип-ту-чип хребтом из тысяч парных медных связей. Несколько стоек LPX работают как единый инференс-движок.
LPU заточены под низколатентную генерацию токенов при меньших затратах. Такие спецчипы породили кучу стартапов вроде Cerebras с контрактами у OpenAI. С Groq 3 LPX клиенты берут аналог прямо у Nvidia, используя ее платформенное превосходство.
В паре с NVL72 система дает до 35-кратный прирост токенов и 10-кратный рост доходов для моделей с триллионом параметров против Blackwell. Поставки намечены на вторую половину года.
Хранилища CMX, ОС для инференса и сеть Spectrum 6 дополняют стек
Новая платформа CMX на BlueField-4 STX выносит KV-кэш в отдельный слой высокоскоростных хранилищ. KV-кэш — буфер, где языковая модель держит промежуточные итоги беседы, чтобы не пересчитывать их заново при каждом токене. Чем длиннее диалог или цепочка агентов, тем больше памяти жрет кэш.
Как пишут в техблоге, CMX видит временный контекст инференса как переиспользуемый тип данных ИИ, доступный через повороты беседы, сессии и агентов. Nvidia обещает 5-кратный рост пропускной способности токенов и 5-кратную экономию энергии против стандартных хранилищ.
Сверху лежит Dynamo 1.0 — открытая ОС для инференса, распределяющая GPU и память по кластеру. Nvidia встраивает ее в LangChain, SGLang и vLLM. Dynamo уже подхватывают AWS, Azure, Google Cloud, Oracle, CoreWeave, Together AI, Nebius, Cursor, Perplexity и Pinterest.
Стойки Spectrum-6 SPX связывают весь POD в суперкомпьютер. Коммутатор Spectrum-6 выдает 102,4 Тбит/с по 512 линиям на 200 Гбит/с с интегрированной оптикой в чипе. Nvidia меняет съемные трансиверы на кремниевую фотонику для лучшей энергоэффективности и меньшей задержки.
Архитектура стоек MGX управляет энергией от чипа до сети
Третье поколение MGX лежит в основе всех пяти типов стоек. По Nvidia, стойки NVL и ETL используют общую физическую базу: корпуса, лотки, картриджи кабелей, контуры жидкостного охлаждения, шины и прочее. Все рассчитаны на входную теплую воду 45°C и полное жидкостное охлаждение.
Новинка — Intelligent Power Smoothing: конденсаторы с 6-кратным запасом энергии (400 Дж на GPU) гасят пики нагрузки, снижая пиковый ток до 25%. Dynamic Max-Q распределяет мощность по стойкам под задачи, позволяя уместить на 30% больше GPU в тот же бюджет энергии.
Nvidia отдала дизайн GB200 NVL72 в Open Compute Project. Экосистему из 80+ партнеров обеспечивают производство и распространение стоек.
Цифровые двойники помогают планировать и запускать ИИ-фабрики до поставки железа
С референс-дизайном DSX и системой DSX Air Nvidia выходит на уровень планирования и работы целых объектов. DSX объединяет вычисления, сеть, хранилища, питание и охлаждение в blueprint для ИИ-фабрик. DSX Air превращает его в цифровой двойник — полную симуляцию до прибытия оборудования.
CoreWeave, Siam.AI и Hydra Host уже юзают симуляции для ускорения до первого прод-токена, говорит Nvidia.
Nemotron Coalition и NemoClaw предлагают открытые модели с защитой
В моделях Nvidia запускает Nemotron Coalition с Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab. Цель — совместная разработка открытых фронтир-моделей без проприетарных интерфейсов. Nvidia дает DGX Cloud, объем не раскрыт. Первая модель от Mistral AI и Nvidia ляжет в основу Nemotron 4.
Формально про открытые модели, на деле Nvidia крепче привязывает разработчиков к своей инфраструктуре. Это продолжается в расширении семейств открытых моделей: Nemotron для агентов, Cosmos и Isaac GR00T для роботов и автономок, BioNeMo, Proteina Complexa и nvQSP для биотеха и лекарств.
Для безопасной работы в продакшене агентов Nvidia выводит NemoClaw — свой стек. Хуанг в ключевом докладе сравнил с OpenClaw: "OpenClaw дал индустрии ровно то, что нужно, в нужный момент. Как Linux, Kubernetes, HTML". Для CEO вопрос: "Какая у вас стратегия OpenClaw?"
NemoClaw — не клон OpenClaw, а его вариант с защитой. OpenClaw дает базу для агентов: рантайм, память, навыки. NemoClaw добавляет слой безопасности через Agent Toolkit и OpenShell Nvidia, контролируя действия и данные. Разработано с создателем OpenClaw Питером Штайнбергером.
Nvidia называет NemoClaw ранним альфа-релизами: "Ждите шероховатостей. Строим прод-оркестрацию песочниц, но старт — запуск своей среды".
Партнерство с Adobe и модули для космоса расширяют горизонты Nvidia
На GTC Nvidia объявила союз с Adobe. Adobe интегрирует Firefly, Firefly Foundry, Acrobat, Frame.io и облачный 3D-двойник для маркетинга с CUDA X, NeMo, Cosmos, Agent Toolkit и Omniverse.
Плюс вычислительные модули для космоса. Модуль Space-1 Vera Rubin с IGX Thor и Jetson Orin несет ИИ-обработку в орбиту. Пользователи: Aetherflux, Axiom Space, Kepler, Planet, Sophia Space, Starcloud. Rubin дает до 25-кратный прирост ИИ-вычислений для орбитального инференса против H100.
DLSS 5 сулит фотореалистичное освещение, но геймеры скептичны
Nvidia также представила DLSS 5 на GTC — нейронный рендеринг для RTX 50 серии осенью 2026. Не апскейлинг или генерация кадров, а ИИ-слой освещения для реалистичного света, теней и материалов. Nvidia зовет это крупнейшим скачком после рейтрейсинга в реальном времени. Разработка заняла три года.
По тестам Digital Foundry, DLSS 5 берет цвет и векторы движения из движка. ИИ различает поверхности — кожа, волосы, вода, металл — и обрабатывает по-разному. Геометрия, текстуры и материалы нетронуты. Тестировали в Resident Evil Requiem, Hogwarts Legacy, Assassin’s Creed Shadows, Oblivion Remastered, Starfield — результаты для окружений, материалов и листвы "удивительные".
Но демо шло на двух RTX 5090: одна играла, вторая — DLSS 5. Финал на одной GPU, но оптимизация и VRAM впереди. Digital Foundry заметил артефакты, назвав текущее "снимком".
Геймеры отреагировали негативно: лица стали как общий ИИ-фильтр, рушащий стиль разработчиков.
Digital Foundry ставит вопрос: хочет ли индустрия фотореализм от Nvidia. Разработчики получат опции кастомизации, фича опциональна. Отзывы студий положительные, по Nvidia.