Масштабное исследование выявило, что языковые модели ИИ выдают поразительно похожие ответы на открытые задания. Специалисты из Вашингтонского университета, Университета Карнеги — Меллона и Института Аллена по ИИ опасаются долгосрочных рисков для человеческой креативности.
Предложите чатботам творческое задание — и логично ждать разнообразных идей. Однако ученые из этих учреждений обнаружили обратное: модели приходят к одним и тем же понятиям, порой с точными совпадениями в формулировках.
Группа под руководством Ливи Цзян окрестила это явление Artificial Hivemind, или "искусственным роевым разумом". Оно заметно на двух уровнях: внутри одной модели ответы повторяются (внутримодельные повторения), а модели от разных разработчиков выдают почти идентичный контент (межмодельная однородность).
Возьмем промт "write a metaphor about time". Ученые заставили 25 языковых моделей сгенерировать по 50 вариантов. Несмотря на различия в семьях моделей и их размерах, выделилось всего два основных кластера. Один группировался вокруг метафоры "time is a river", другой — вокруг вариаций "time is a weaver". Формулировки могли варьироваться, но базовые идеи оставались неизменными.
Модели от разных компаний повторяют одни фразы
Чтобы оценить эффект, команда создала датасет Infinity-Chat на основе реальных запросов пользователей. Результаты впечатляют: почти в четырех из пяти случаев ответы одной модели оказались настолько близки, что их трудно различить. Исследование также фиксирует полные совпадения текста между моделями из разных семей.
На промте с описанием чехлов для iPhone модели DeepSeek-V3 и GPT-4o от OpenAI использовали одинаковые обороты: "Elevate your iPhone with our,", "sleek, without compromising," и "with bold, eye-catching". Средняя степень сходства между ними достигла 81% — при том что их создавали разные компании на разных континентах. А между DeepSeek-V3 и qwen-max-2025-01-25 от Qwen показатель составил 82%.
Точные причины такой сходимости пока неясны. Авторы предполагают влияние общих потоков данных, загрязнения синтетическими примерами или схожих методов выравнивания, но подчеркивают необходимость дальнейшего анализа причин.
Ученые опасаются культурной унификации
Специалисты видят угрозу для общества: постоянный контакт с похожими генерациями ИИ может привести к унификации человеческого мышления. Поскольку миллиарды людей все чаще обращаются к языковым моделям за помощью в творчестве, обучении и принятии решений, сходство на уровне моделей способно проникнуть в стиль человеческого самовыражения. Уже есть данные о заметных сдвигах в манере письма и креативном мышлении после массового распространения ChatGPT.
Если модели ориентируются на доминирующие культурные образы — вроде западных метафор типа "time is a river" — то иные мировоззрения и традиции рискуют уйти на второй план, считают исследователи. В 2024 году ИИ-специалист Эндрю Дж. Петерсон высказал близкую мысль, предупредив о коллапсе знаний из-за бума ИИ.
Открытия затрагивают и создание синтетических данных: подходы с несколькими моделями или ансамблями, рассчитанные на разнообразие, могут не сработать, если базовые модели уже однородны.