Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Меньше работы, равная оплата: видение OpenAI для мира с супер-интеллектом

OpenAI представила доклад с политикой для эры супер-интеллекта: публичный фонд благосостояния, четырехдневная неделя, новые налоги и участие работников в ИИ-внедрении. Компания предупреждает о рисках массовых увольнений и концентрации власти, предлагая меры по безопасности и глобальному диалогу. Идеи ориентированы на США, но требуют worldwide подхода.

6 апреля 2026 г.
8 мин
20

OpenAI подготовила доклад с рекомендациями для властей по подготовке к супер-интеллекту: среди них публичный фонд благосостояния, четырехдневная рабочая неделя и повышенные налоги на доходы от капитала для самых богатых.

Компания выпустила документ объемом в двенадцать страниц под названием «Industrial Policy for the Intelligence Age». В нем изложены меры, чтобы переход к супер-интеллекту принес пользу всем людям. Идеи носят предварительный характер и не являются готовым набором требований, уточняет OpenAI.

Супер-интеллект — это ИИ-системы, которые превосходят самых умных людей, даже если те используют помощь ИИ. Такие разработки уже в пути: передовые модели перешли от задач, занимающих минуты, к многочасовым. При сохранении темпов скоро они возьмутся за проекты длительностью в месяцы.

OpenAI сравнивает грядущие изменения с эпохой прогрессивизма и Новым курсом, когда после индустриализации перестраивали общественный договор. Главное отличие сейчас — темпы: решения ближайшего времени определят распределение плюсов и минусов на десятилетия вперед.

Доклад указывает на угрозы: массовые увольнения, злоупотребления, потерю контроля, скопление власти в одних руках. OpenAI признает свою уязвимость: «Существует риск, что экономические выгоды сосредоточатся в немногих компаниях вроде OpenAI, хотя технология станет мощнее и доступнее». Основной акцент на США, но диалог и ответы должны охватывать весь мир.

Национальный фонд благосостояния, свежие налоги и бонусы от эффективности

OpenAI предлагает учредить «Публичный фонд благосостояния», чтобы каждый житель страны имел долю в росте экономики благодаря ИИ. Фонд вложится в разнообразные долгосрочные активы — от ИИ-компаний до всей экономики.

Доходы пойдут гражданам напрямую, независимо от их исходного капитала. Источники финансирования доклад не уточняет: это предстоит обсудить политикам и разработчикам ИИ.

По налогам OpenAI советует обновить базу, чтобы социальное обеспечение и медицина оставались финансируемыми надолго. Нужны повышенные ставки на прирост капитала для высших доходов, корпоративные сборы с устойчивых прибылей от ИИ и налоги на автоматизированный труд. Фирмы, сохраняющие и обучающие персонал, получат льготы, привязанные к зарплатам.

Доклад детализирует график работы. Работодатели и профсоюзы должны опробовать 32-часовую неделю или четырехдневку с полной оплатой в пилотных проектах. Если производительность не упадет, режим сделают постоянным. Снижение затрат за счет ИИ позволит увеличить вложения в пенсии, здравоохранение и уход за детьми.

Работники решают, как внедрять ИИ

Сотрудники должны участвовать в выборе сценариев применения ИИ на рабочих местах, считает OpenAI. Они лучше знают специфику задач и подскажут, где начать: с опасных, монотонных или тяжелых операций. ИИ не должен нагружать лишней работой, урезать свободу или снижать достойную оплату.

При сильных потрясениях на рынке труда доклад предлагает пакет помощи: гибкие пособия по безработице, быстрые выплаты наличными и ваучеры на переобучение. Они активируются автоматически при превышении пороговых показателей и отключатся после стабилизации.

Уволенных ИИ нужно направлять в сферу ухода: за детьми, пожилыми, образование, медицину, общественные услуги. ИИ упростит бюрократию здесь, но человеческий контакт останется ключевым. С помощью «семейных пособий» OpenAI хочет признать ценность ухода за близкими, чтобы его совмещали с подработкой, учебой или бизнесом.

Доступ к ИИ, поддержка стартапов и инфраструктура

Доступ к ИИ должен стать массовым, как кампании по грамотности или электрификации и интернетизации отдаленных регионов, настаивает OpenAI. Базовый уровень знаний об ИИ обязателен, с бесплатными или дешевыми вариантами.

Начинающим предпринимателям нужны «стартовые наборы»: микрогранты, шаблоны контрактов, общая инфраструктура. Организации работников выступят посредниками для обучения и переговоров.

Сначала стоит расширить энергосистемы. Дата-центры ИИ обязаны оплачивать энергию сами, без субсидий от домохозяйств и создавать рабочие места с налогами на местах. Публично-частные партнерства закроют пробелы в финансировании, разрешениях и рисках размещения линий электропередач. Такие схемы защитят бюджетников от убытков и снизят тарифы для жителей.

Доклад требует сети лабораторий с ИИ для проверки гипотез. Они интегрируют ИИ в эксперименты, ускоряя цикл от идей к тестам. Лаборатории разместят в университетах, колледжах, больницах и региональных центрах, а не только в элитных заведениях.

Безопасность в эпоху супер-интеллекта

Вторая часть доклада посвящена устойчивости общества. OpenAI призывает разрабатывать инструменты против злоупотреблений в киберпространстве и биорисках.

Продвинутые ИИ задействуют для моделирования угроз, красных команд и тестов надежности. Плюс нужны оборонительные системы, вроде средств для быстрого создания лекарств при эпидемиях. Закупки, стандарты и страхование создадут «рынки безопасности», где защиты эволюционируют в ногу с опасностями.

OpenAI предлагает «стек доверия к ИИ»: верификацию и отслеживание источников контента и действий от ИИ, чтобы укрепить веру без тотальной слежки. Для топ-моделей — аудиты, особенно если они продвигают риски химического, биологического, радиологического, ядерного или кибернаправления. Правила коснутся немногих фирм и передовых систем, не затронув общий доступ к ИИ.

Если опасные модели утекут — веса опубликуют или они размножатся сами, — нужны «планы сдерживания моделей». Они опишут шаги координации, как в кибербезопасности или здравоохранении.

Доклад предлагает систему отчетности: компании делятся данными об инцидентах, злоупотреблениях и близких промахах с особым органом. Цель — уроки и профилактика, а не наказания.

Случаи с тревожными внутренними рассуждениями моделей, неожиданными возможностями или сигналами риска без ущерба тоже фиксировать, чтобы индустрия училась на «почти инцидентах».

Жестче правила для властей и компаний

Передовые ИИ-фирмы обязаны внедрить управление с учетом общественных интересов, считает доклад: например, стать корпорациями общественной выгоды с обязательствами делить плюсы ИИ, включая крупные долгосрочные пожертвования.

Ключевые системы защитить от захвата корпорациями или инсайдерами: охранять веса моделей и инфраструктуру обучения, проверять на манипуляции или «скрытые привязанности», отслеживать рискованные запуски, чтобы никто не монополизировал власть через ИИ.

Властям нужны четкие нормы для ИИ с высокими требованиями к надежности, согласованности и защите. При этом ИИ усилит контроль: рабочие процессы в органах оставят цифровые следы для ИИ-аудита надзорщиками.

Конкретно: обновить законы вроде Freedom of Information Act, чтобы граждане и наблюдатели копали с ИИ по вопросам действий властей. Определить, когда логи ИИ и записи органов становятся федеральными архивами с сроками хранения.

Чтобы согласованность не решали инженеры или боссы втайне, доклад требует публичных механизмов вклада общества. Разработчики публикуют спецификации поведения моделей. Власти закрепят их за демократическими ценностями и организуют представительный input.

На глобальном уровне — сеть ИИ-институтов с протоколами обмена данными, совместных оценок и реакций. Со временем она вырастет в международную структуру по безопасности и стандартам.