Данные не подтверждают стойкое лидерство США в производительности моделей ИИ, и это лишь один из неприятных выводов из отчёта Stanford University 2026 AI Index Report, который вышел на этой неделе.
Этот 423-страничный ежегодный анализ от Института человечески-центричного ИИ при Стэнфорде оценивает положение дел в искусственном интеллекте: от научных публикаций и результатов моделей до инвестиций, общественного мнения и ответственного ИИ. Главные выводы поражают.
Однако самые важные детали прячутся в разделах, которые освещают редко, особенно в части безопасности ИИ, где разрыв между возможностями моделей и тщательностью их проверки на вред не сократился, а вырос.
Три вывода заслуживают большего внимания.
Разрыв в производительности моделей ИИ между США и Китаем практически исчез
Представление о лидерстве США в разработке ИИ требует корректировки. Как указано в отчёте, американские и китайские модели неоднократно менялись местами на вершине с начала 2025 года. В феврале 2025 DeepSeek-R1 ненадолго сравнялся с лучшей американской моделью. К марту 2026 топ-модель Anthropic опережает всего на 2,7%.
США по-прежнему выпускают больше моделей высшего уровня — 50 против 30 у Китая — и держат преимущество в патентах с высоким влиянием. Но Китай обходит в объёме публикаций, доле цитирований и выдаче патентов. Доля Китая среди 100 самых цитируемых статей по ИИ выросла с 33 в 2021 до 41 в 2024. Южная Корея лидирует по патентам на душу населения.
На практике это значит, что данные не подкрепляют идею о прочном технологическом превосходстве США в производительности ИИ-моделей. Разрыв, который был два года назад, сузился до уровня, где всё меняется с каждым новым релизом.
Отчёт также отмечает структурную уязвимость: США владеют 5427 дата-центрами — в десять раз больше, чем любая другая страна, — но почти все ведущие чипы для ИИ производит одна компания TSMC. Глобальная цепочка поставок аппаратного обеспечения ИИ проходит через фабрику на Тайване, хотя расширение TSMC в США запустилось в 2025.
Бенчмарки безопасности ИИ отстают, и цифры это подтверждают
Почти все разработчики frontier-моделей публикуют результаты по бенчмаркам способностей. С бенчмарками ответственного ИИ так не бывает, и отчёт 2026 года фиксирует этот разрыв точно.
Таблица бенчмарков по безопасности и ответственному ИИ полна пустых ячеек. Только Claude Opus 4.5 отчитывается по более чем двум таким тестам. Только GPT-5.2 публикует StrongREJECT. По бенчмаркам справедливости, безопасности и человеческого контроля большинство frontier-моделей вообще ничего не показывают.

Это не значит, что в Frontier Labs не занимаются безопасностью внутри. Отчёт признаёт: red-teaming и тесты на выравнивание проводятся, но "редко раскрываются с помощью общих, сравнимых извне бенчмарков". В итоге внешнее сравнение по аспектам безопасности ИИ почти невозможно для большинства моделей.
Зафиксированных инцидентов ИИ в 2025 стало 362 против 233 годом ранее, по данным AI Incident Database. Монитор инцидентов и рисков ИИ от OECD, использующий автоматизированный сбор, отметил пик в 435 случаев в январе 2026, а шестидневная скользящая средняя — 326.

Реакция организаций на уровне управления не поспевает. Опрос AI Index и McKinsey показал: доля компаний, оценивающих свою реакцию на инциденты ИИ как "отличную", упала с 28% в 2024 до 18% в 2025. Доля "хороших" ответов снизилась с 39% до 24%. При этом доля тех, кто столкнулся с 3–5 инцидентами, выросла с 30% до 50%.
Отчёт выявляет проблему в самом улучшении ответственного ИИ: успехи в одной области часто вредят другой. Улучшение безопасности может снизить точность, а усиление приватности — справедливость. Нет рамок для баланса таких компромиссов, а для отслеживания прогресса в справедливости и объяснимости не хватает стандартизированных данных.
Общественная тревога растёт вместе с внедрением ИИ, а разрыв между экспертами и публикой огромен
По всему миру 59% опрошенных считают, что плюсы ИИ перевешивают минусы, — рост с 55% в 2024. В то же время 52% нервничают из-за ИИ-продуктов и сервисов, на 2 процентных пункта больше за год. Оба показателя растут: люди чаще используют ИИ, но всё больше беспокоятся о последствиях.
Разрыв между экспертами и общественностью по влиянию ИИ на работу особенно велик. По отчёту, 73% экспертов по ИИ ждут положительного эффекта на рабочие процессы против 23% у населения — разница в 50 пунктов. По экономике разрыв 48 пунктов (69% экспертов против 21% публики). В медицине эксперты оптимистичны на 84%, публика — на 44%.
Такие разрывы влияют, поскольку общественное доверие определяет регуляции, а те — внедрение ИИ. Здесь отчёт подчёркивает: в США самый низкий уровень доверия к правительству в регулировании ИИ — 31% среди опрошенных стран. Глобальный средний — 54%. Страны Юго-Восточной Азии лидируют: Сингапур 81%, Индонезия 76%.
Глобально ЕС доверяют в регулировании ИИ больше, чем США или Китаю. В опросе Pew Research Centre 2025 среди 25 стран медиана доверия ЕС — 53%, США — 37%, Китаю — 27%.
Отчёт завершает главу об общественном мнении тем, что страны Юго-Восточной Азии остаются самыми оптимистичными по ИИ. В Китае, Малайзии, Таиланде, Индонезии и Сингапуре более 80% считают, что ИИ сильно изменит их жизнь в ближайшие 3–5 лет. Самый большой рост такого мнения в Малайзии с 2024 по 2025.