Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте
Microsoft анонсировал инвестиции в 10 миллиардов долларов в Японию на ИИ-инфраструктуру, кибербезопасность и обучение кадров с 2026 по 2029 год. С партнерами вроде SoftBank компания запустит локальные GPU-сервисы Azure и подготовит миллион специалистов к 2030 году. Это ответ на будущий дефицит 3,26 миллиона экспертов по ИИ и роботам к 2040 году.
Duos Edge AI и LG CNS предлагают модульные дата-центры для ИИ, доставляемые на грузовиках и разворачиваемые за 6 месяцев вместо 2–3 лет. Каждый блок вмещает 576 GPU Nvidia с опцией роста до тысяч, что ускоряет запуск ИИ-инфраструктуры и снижает затраты вдвое за мегавакт. Рынок таких решений удвоится к 2030 году.
Подразделение сетевых технологий Nvidia выросло до 11 миллиардов долларов за квартал благодаря приобретению Mellanox и буму ИИ. Оно стало вторым по выручке после чипов, обогнав квартальные показатели Cisco. На GTC анонсировали платформу Rubin и новые коммутаторы для ИИ-фабрик.
Стартап Niv-AI из Тель-Авива привлек $12 млн seed для борьбы с потерями энергии в ИИ-кластерах на GPU. Сенсоры измеряют потребление с миллисекундной точностью, а ИИ-модель предсказывает пики и выравнивает нагрузки. Через полгода технология заработает в дата-центрах США, помогая избежать троттлинга на 30%.
Дженсен Хуанг на GTC спрогнозировал $1 трлн заказов на чипы Nvidia Blackwell и Vera Rubin к 2027 году, вдвое превысив прошлогодние $500 млрд. Архитектура Rubin работает в 3,5 раза быстрее Blackwell на обучении моделей ИИ и в 5 раз на инференсе, достигая 50 петафлопс. Производство наращивают во второй половине года.
Nvidia на GTC представила чип Groq 3 LPU на базе технологий Groq специально для ИИ-инференса с низкой задержкой. Новый процессор использует SRAM для линейного потока данных и в 7 раз превосходит Rubin GPU по пропускной способности памяти. Это отражает переход ИИ от обучения к массовому использованию моделей.
Apple анонсировала чипы M5 Pro и M5 Max с Fusion Architecture для новых MacBook Pro. Они предлагают 18-ядерный CPU с 30% приростом, GPU до 40 ядер с 4x ускорением ИИ-вычислений и увеличенную унифицированную память до 128 ГБ. Чипы подходят для профессионалов в моделировании, анимации и исследованиях ИИ.
ASML планирует расшириться в продвинутую упаковку чипов, ключевую для ИИ-процессоров вроде тех, что делает TSMC для Nvidia. Компания смотрит на 10–15 лет вперед, изучает новые машины и интегрирует ИИ в свои системы для улучшения производства.
MLCommons выпустила результаты MLPerf Inference v6.0 с новыми мультимодальными тестами: Nvidia лидирует с 288 GPU и 2,7x софт-оптимизацией, AMD догоняет в single-node до 119% от B200 Nvidia, Intel фокусируется на workstations. Результаты сложно сравнивать напрямую из-за разных подходов. Nvidia продвигает тест для реального API-трафика.
NVIDIA RTX PRO 6000 Blackwell Workstation Edition радикально ускоряет науку о данных, обеспечивая до 50-кратный прирост в обработке с cuDF и поддержку до 4 GPU на столе. Она упрощает весь пайплайн от подготовки данных до деплоя, включая визуализации и обучение XGBoost. Это снижает зависимость от облаков, экономит средства и усиливает безопасность.
DataRobot и Nebius объединились для создания AI Factory for Enterprises — платформы, ускоряющей разработку и запуск ИИ-агентов в продакшен за дни. Комбинация Agent Workforce Platform DataRobot и облака Nebius обеспечивает масштабируемость, контроль, мониторинг и безопасность. Поддерживаются фреймворки вроде LangChain, развертывание NIM, Workload API и оценка с OTel.
DataRobot подтвердила NVIDIA RTX PRO 4500 с архитектурой Blackwell как оптимальный движок для платформы Agent Workforce. Карта с 32 ГБ GDDR7 идеальна для локального запуска агентов, низких задержек и защиты данных в логистике с cuOpt и RAG с NeMo Retriever. Платформа добавляет инструменты runtime и build для безопасного управления.
На GTC 2026 Nvidia расширила платформу Vera Rubin новыми стойками NVL72, Kyber, CPU Vera и Groq 3 LPX для инференса, плюс CMX-хранилища и Dynamo OS. Появились цифровые двойники DSX для ИИ-фабрик, коалиция Nemotron для открытых моделей и NemoClaw с защитой агентов. Анонсированы DLSS 5, партнерство Adobe и модули для космоса.
Tower Semiconductor и Scintil Photonics запустили производство однокристального DWDM-светового двигателя для ИИ-инфраструктуры. Чип LEAF Light интегрирует лазеры на кремнии, позволяя передавать до 1,6 Тбит/с по волокну с низкими задержками в scale-up сетях. Это повышает утилизацию GPU вдвое и готовит CPO к новым задачам.
KDDI и AVITA объединились для разработки гуманоидов с физическим ИИ, чтобы повысить эффективность клиентского сервиса. Гуманоиды сочетают продвинутую аппаратную часть с сетевой инфраструктурой и облачными вычислениями на базе GPU в Osaka Sakai и Google Gemini. Тесты стартуют осенью 2026 года в реальных магазинах.
Docker предлагает пять паттернов инфраструктуры для ИИ-агентов: Model Runner для локального запуска моделей из Docker Hub через OpenAI API, Compose для сборки стеков, Offload для облачных GPU, MCP-серверы для инструментов и оптимизированные GPU-образы PyTorch и TensorFlow. Пример docker-compose.yml интегрирует LLM, приложение и инструменты вроде поиска. Такой подход гарантирует стабильность и переносимость от локальной разработки до продакшена.