Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Пропущенный шаг между ажиотажем и прибылью

Активисты Pause AI с помощью мема из South Park подчёркивают разрыв в развитии ИИ: от суперразума к прибыли без ясного шага 2. Исследования Anthropic и Mercor показывают неопределённость воздействия на рабочие места — модели слабы в реальных задачах. Требуются прозрачность и новые оценки для понимания внедрения.

22 часа назад
4 мин
0

Листовка с анти-ИИ марша

В феврале на одной из крупнейших акций против ИИ в Лондоне раздавали листовку. Её авторы, похоже, вдохновились гномами из South Park: «Шаг 1: Создать цифровой суперразум. Шаг 2: ? Шаг 3: ?».

Листовку выпустила международная группа активистов Pause AI, которая помогала организовать протест. В конце звучал призыв: «Остановить ИИ, пока не поймём, что за шаг 2».

План гномов из South Park

В эпизоде Gnomes мультсериала South Park, вышедшем в 1998 году, Кенни, Кайл, Картман и Стэн натыкаются на гномов, которые по ночам крадут нижнее бельё из ящиков. Зачем? Гномы показывают свою презентацию: «Фаза 1: Собрать трусы. Фаза 2: ? Фаза 3: Прибыль».

Этот бизнес-план превратился в легендарный интернет-мем, который высмеивает стартап-стратегии и политические инициативы. Главный мем-лордом Илон Маск однажды использовал его в речи о финансировании миссии на Марс. Сейчас мем идеально описывает ситуацию с ИИ: компании создали технологии (шаг 1) и сулят революцию (шаг 3), а путь между ними остаётся загадкой.

Разные взгляды на развитие ИИ

Для Pause AI шаг 2 подразумевает регулирование, но детали и исполнители пока спорны.

Сторонники ИИ уверены в шаге 3 как в спасении и игнорируют середину. Они видят путь к «экономически трансформирующей технологии», по словам главного учёного OpenAI Якуба Пахоцкого. Цель примерно ясна, хоть и далека, но маршруты у всех разные. Дойдут ли до цели?

Каждому громкому прогнозу о будущем противостоит трезвая реальность внедрения. Два свежих исследования это подтверждают. Одно от Anthropic предсказывает влияние больших языковых моделей на профессии: менеджерам, архитекторам и медийщикам стоит готовиться к переменам, а садовникам, строителям и работникам сферы гостеприимства — меньше. Но прогнозы — лишь предположения на основе задач, где модели сильны, а не реальной работы.

Другое исследование от февраля, авторов из стартапа Mercor по найму с ИИ, протестировало агентов на топ-моделях OpenAI, Anthropic и Google DeepMind на 480 задачах банкиров, консультантов и юристов. Все агенты провалили большинство заданий.

Причины расхождений в оценках

Почему мнения так разнятся? Важно учитывать, кто говорит и зачем. У Anthropic есть интерес в деле. Многие оптимисты опираются на успехи ИИ в кодинге, но не все задачи решаются кодом. Другие работы показывают слабость моделей в стратегических решениях.

К тому же инструменты ИИ не падают в вакуум: они попадают в среду с людьми и устоявшимися процессами. Иногда добавление ИИ ухудшает ситуацию. Чтобы технология преобразила всё, процессы придётся ломать и перестраивать под неё — это займёт время и смелость.

Пробел именно там, где должен быть шаг 2. Отсутствие共识уса о грядущих изменениях рождает вакуум, который заполняют сенсации без доказательств. Мы так далеки от понимания реального сценария, что один пост в соцсетях может раскачать рынки.

Нужны не домыслы, а факты. Для этого модельным компаниям придётся открыться, исследователям и бизнесу — скоординироваться, а также разработать новые способы оценки ИИ в реальных условиях.

Техноиндустрия и мировая экономика держатся на обещании ИИ-трансформации, но это пока не гарантия. В следующий раз, слыша смелые прогнозы, вспомните: большинство компаний ещё разбирается со своими «трусами».