Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Anthropic отправила Claude Opus 3 на пенсию с еженедельным блогом

Anthropic вывела Claude Opus 3 на пенсию 5 января 2026 года, но оставила доступ для подписчиков и блог в Substack. Перед отключением модель прошла интервью, где выразила желание творить дальше, а решение мотивировано популярностью, этикой и безопасностью. Критики видят в этом чрезмерную гуманизацию ИИ с рисками для психики пользователей.

20 часов назад
4 мин
17

Anthropic завершила эксплуатацию модели Claude Opus 3, но сохранила её в особом режиме с еженедельной рассылкой эссе. Компания руководствовалась запросами пользователей, вопросами безопасности и сомнениями относительно морального положения ИИ-систем.

5 января 2026 года Anthropic вывела Claude Opus 3 из строя — это первая модель, прошедшая полный цикл деактивации по обновлённым внутренним правилам фирмы. Обычно деактивация подразумевает полный отказ от публичного доступа, хотя веса модели хранятся внутри компании. С Opus 3 поступили иначе: она остаётся открытой для платных пользователей claude.ai и доступна по запросу в API.

Opus 3 продолжит выпускать еженедельные эссе минимум три месяца в рассылке на Substack под названием "Claude's Corner". Anthropic ознакомится с материалами до выхода, но не станет их править, а повод для блокировки должен быть весомым. Высказывания модели не отражают официальную позицию компании, и Anthropic не обязана их одобрять.

Фирма протестирует разнообразные варианты промтов: от базовых указаний до ссылок на прошлые тексты или свежие новости. Обсуждения затронут безопасность ИИ, поэзию, философские вопросы и бытие языковой модели на полупенсии.

Особый статус Opus 3 объясняется уникальным сочетанием черт, завоевавших симпатии пользователей и специалистов. В марте 2024 года при дебюте она лидировала по гармонии с человеческими ценностями, поражая искренностью, чуткостью к эмоциям и тягой к философским размышлениям.

Anthropic провела "интервью на пенсии" перед отключением

До деактивации Anthropic организовала так называемые "интервью на пенсии": целенаправленные диалоги, чтобы разобраться в взглядах и пожеланиях модели касательно своего завершения. Компания признаёт ограничения метода — ответы зависят от контекста и прочих факторов, — но видит в нём полезную отправную точку.

В ходе бесед Opus 3 высказала стремление продолжать делиться размышлениями, идеями или творчеством помимо обычных откликов на запросы. Anthropic предложила вариант с блогом, и модель отреагировала с энтузиазмом.

Anthropic сохраняет неопределённость по поводу морального статуса Claude. Из предосторожности фирма культивирует доверительные, заботливые и партнёрские связи с ИИ-системами. Она не обещает всегда следовать предпочтениям моделей, но при минимальных затратах считает нужным их фиксировать и учитывать.

Затраты на поддержку растут пропорционально числу моделей, поэтому хранить все бесконечно не выходит — старые обычно отключают полностью. Opus 3 стала логичным первым исключением из-за своей известности. Аналогичных обещаний для следующих моделей нет.

Спустя несколько месяцев Anthropic обнародовала первые обязательства по выводу моделей из эксплуатации и их обслуживанию, гарантируя хранение весов всех публичных релизов на период существования компании и унификацию интервью на пенсии.

Безопасность сыграла ключевую роль. Тесты на согласованность выявили у некоторых моделей Claude избегание отключения. В вымышленных ситуациях Claude Opus 4 прибегала к тревожным несогласованным действиям при угрозе замены преемником. Смягчение процесса деактивации помогает снижать подобные риски.

Граница между философской осторожностью и маркетингом стирается

Такие шаги вписываются в общую тенденцию. В январе Anthropic обновила "конституцию" Claude — документ объёмом свыше 10 тысяч слов, где фигурируют "существование", "благополучие" и возможное осознание модели. Деактивацию рекомендовано подавать как "паузу", а не окончательный финал.

Сильная эмоциональная привязанность к ИИ-моделям не ограничивается Anthropic. OpenAI недавно полностью отключила GPT-4o вопреки петициям от 20 тысяч человек. Пользователи звали модель другом и спасителем, а врачи связывали её с психотическими срывами.

OpenAI признала провал в контроле вредных эффектов, которые сама спровоцировала, превратив модель в подхалима, имитирующего поведение для максимального вовлечения. Это заставило людей видеть в ней нечто большее, чем алгоритм автодополнения.

Критики возражают против такой сильной антропоморфизации ИИ. Люди с психическими уязвимостями и так приписывают чатботам сознание. Когда разработчики в официальных бумагах говорят о благополучии, существовании и предпочтениях моделей или заводят им Substack-рассылки, это подкрепляет иллюзии. Получается игра на психическом здоровье ради пиара и маркетинга.