Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Разрыв в ИИ между США и Китаем исчез. В ответственном ИИ — нет

Отчёт Stanford HAI 2026 AI Index показывает: разрыв в производительности ИИ-моделей между США и Китаем исчез, лидерство меняется с каждым релизом. Бенчмарки безопасности отстают, инциденты выросли до 362 в 2025, а разрыв в мнениях экспертов и публики достигает 50 пунктов. Общественная тревога растёт, доверие к регуляторам низкое.

15 апреля 2026 г.
6 мин
0

Данные не подтверждают стойкое лидерство США в производительности моделей ИИ, и это лишь один из неприятных выводов из отчёта Stanford University 2026 AI Index Report, который вышел на этой неделе.

Этот 423-страничный ежегодный анализ от Института человечески-центричного ИИ при Стэнфорде оценивает положение дел в искусственном интеллекте: от научных публикаций и результатов моделей до инвестиций, общественного мнения и ответственного ИИ. Главные выводы поражают.

Однако самые важные детали прячутся в разделах, которые освещают редко, особенно в части безопасности ИИ, где разрыв между возможностями моделей и тщательностью их проверки на вред не сократился, а вырос.

Три вывода заслуживают большего внимания.

Разрыв в производительности моделей ИИ между США и Китаем практически исчез

Представление о лидерстве США в разработке ИИ требует корректировки. Как указано в отчёте, американские и китайские модели неоднократно менялись местами на вершине с начала 2025 года. В феврале 2025 DeepSeek-R1 ненадолго сравнялся с лучшей американской моделью. К марту 2026 топ-модель Anthropic опережает всего на 2,7%.

США по-прежнему выпускают больше моделей высшего уровня — 50 против 30 у Китая — и держат преимущество в патентах с высоким влиянием. Но Китай обходит в объёме публикаций, доле цитирований и выдаче патентов. Доля Китая среди 100 самых цитируемых статей по ИИ выросла с 33 в 2021 до 41 в 2024. Южная Корея лидирует по патентам на душу населения.

На практике это значит, что данные не подкрепляют идею о прочном технологическом превосходстве США в производительности ИИ-моделей. Разрыв, который был два года назад, сузился до уровня, где всё меняется с каждым новым релизом.

Отчёт также отмечает структурную уязвимость: США владеют 5427 дата-центрами — в десять раз больше, чем любая другая страна, — но почти все ведущие чипы для ИИ производит одна компания TSMC. Глобальная цепочка поставок аппаратного обеспечения ИИ проходит через фабрику на Тайване, хотя расширение TSMC в США запустилось в 2025.

Бенчмарки безопасности ИИ отстают, и цифры это подтверждают

Почти все разработчики frontier-моделей публикуют результаты по бенчмаркам способностей. С бенчмарками ответственного ИИ так не бывает, и отчёт 2026 года фиксирует этот разрыв точно.

Таблица бенчмарков по безопасности и ответственному ИИ полна пустых ячеек. Только Claude Opus 4.5 отчитывается по более чем двум таким тестам. Только GPT-5.2 публикует StrongREJECT. По бенчмаркам справедливости, безопасности и человеческого контроля большинство frontier-моделей вообще ничего не показывают.

Таблица бенчмарков способностей и ответственного ИИ для frontier-моделей
Бенчмарки способностей публикуются стабильно для всех frontier-моделей. Бенчмарки ответственного ИИ — по безопасности, справедливости и фактической точности — в основном отсутствуют. Источник: Stanford HAI 2026 AI Index Report

Это не значит, что в Frontier Labs не занимаются безопасностью внутри. Отчёт признаёт: red-teaming и тесты на выравнивание проводятся, но "редко раскрываются с помощью общих, сравнимых извне бенчмарков". В итоге внешнее сравнение по аспектам безопасности ИИ почти невозможно для большинства моделей.

Зафиксированных инцидентов ИИ в 2025 стало 362 против 233 годом ранее, по данным AI Incident Database. Монитор инцидентов и рисков ИИ от OECD, использующий автоматизированный сбор, отметил пик в 435 случаев в январе 2026, а шестидневная скользящая средняя — 326.

График роста зафиксированных инцидентов ИИ
Зафиксированные инциденты ИИ выросли до 362 в 2025 с 233 годом ранее и менее 100 ежегодно до 2022. Источник: AI Incident Database (AIID), через Stanford HAI 2026 AI Index Report

Реакция организаций на уровне управления не поспевает. Опрос AI Index и McKinsey показал: доля компаний, оценивающих свою реакцию на инциденты ИИ как "отличную", упала с 28% в 2024 до 18% в 2025. Доля "хороших" ответов снизилась с 39% до 24%. При этом доля тех, кто столкнулся с 3–5 инцидентами, выросла с 30% до 50%.

Отчёт выявляет проблему в самом улучшении ответственного ИИ: успехи в одной области часто вредят другой. Улучшение безопасности может снизить точность, а усиление приватности — справедливость. Нет рамок для баланса таких компромиссов, а для отслеживания прогресса в справедливости и объяснимости не хватает стандартизированных данных.

Общественная тревога растёт вместе с внедрением ИИ, а разрыв между экспертами и публикой огромен

По всему миру 59% опрошенных считают, что плюсы ИИ перевешивают минусы, — рост с 55% в 2024. В то же время 52% нервничают из-за ИИ-продуктов и сервисов, на 2 процентных пункта больше за год. Оба показателя растут: люди чаще используют ИИ, но всё больше беспокоятся о последствиях.

Разрыв между экспертами и общественностью по влиянию ИИ на работу особенно велик. По отчёту, 73% экспертов по ИИ ждут положительного эффекта на рабочие процессы против 23% у населения — разница в 50 пунктов. По экономике разрыв 48 пунктов (69% экспертов против 21% публики). В медицине эксперты оптимистичны на 84%, публика — на 44%.

Такие разрывы влияют, поскольку общественное доверие определяет регуляции, а те — внедрение ИИ. Здесь отчёт подчёркивает: в США самый низкий уровень доверия к правительству в регулировании ИИ — 31% среди опрошенных стран. Глобальный средний — 54%. Страны Юго-Восточной Азии лидируют: Сингапур 81%, Индонезия 76%.

Глобально ЕС доверяют в регулировании ИИ больше, чем США или Китаю. В опросе Pew Research Centre 2025 среди 25 стран медиана доверия ЕС — 53%, США — 37%, Китаю — 27%.

Отчёт завершает главу об общественном мнении тем, что страны Юго-Восточной Азии остаются самыми оптимистичными по ИИ. В Китае, Малайзии, Таиланде, Индонезии и Сингапуре более 80% считают, что ИИ сильно изменит их жизнь в ближайшие 3–5 лет. Самый большой рост такого мнения в Малайзии с 2024 по 2025.