Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Галлюцинации в цитатах NeurIPS

Стартап GPTZero нашел 100 вымышленных ссылок в 51 статье из 4841 на конференции NeurIPS. Это статистически мало, но подчеркивает проблемы рецензирования и использования ИИ экспертами. Главный вывод — даже лидеры ИИ не всегда проверяют выводы моделей.

22 января 2026 г.
2 мин
25

Выдуманные ссылки в работах престижной конференции

Стартап GPTZero, специализирующийся на распознавании текстов от ИИ, проверил все 4841 научную статью, которую приняли на авторитетную конференцию по обработке нейронных сетей NeurIPS. Она прошла недавно в Сан-Диего. Компания обнаружила 100 фальшивых ссылок на источники в 51 работе и подтвердила их вымышленный характер.

Публикация на NeurIPS — это серьезное достижение для карьеры в сфере ИИ. Поэтому логично предположить, что ведущие ученые прибегают к большим языковым моделям для такой скучной рутины, как оформление списка литературы.

Но с этими данными связаны оговорки: 100 подтвержденных фейковых ссылок в 51 статье — это несущественно в статистическом плане. Ведь в каждой работе десятки ссылок, а всего их десятки тысяч. По сути, это ноль.

Ошибка в ссылке не разрушает само исследование. Как отметили организаторы NeurIPS в комментарии для Fortune, первыми сообщившего о находке GPTZero: «Даже если 1,1% статей содержат одну или несколько неверных ссылок из-за ИИ, содержание самих работ при этом не обязательно теряет ценность».

В то же время фальшивые цитаты нельзя сбрасывать со счетов. NeurIPS подчеркивает свою приверженность строгим стандартам научных публикаций в машинном обучении и искусственном интеллекте. Каждую статью проверяют несколько рецензентов, которым велено вылавливать галлюцинации ИИ.

Ссылки служат своеобразной валютой для ученых. Они показывают, насколько работа одного исследователя влияет на коллег, и влияют на карьерный рост. Когда ИИ их фабрикует, это снижает ценность всей системы.

Рецензентам можно простить пропуск пары подделок в потоке тысяч текстов. Сам GPTZero акцентирует на этом. Цель проверки — продемонстрировать, как ИИ-мусор проникает сквозь «цунами подач», которое доводит процессы рецензирования до предела, говорится в отчете стартапа. Компания ссылается на работу мая 2025 года под названием «The AI Conference Peer Review Crisis», где разбирают эту проблему на ведущих конференциях, включая NeurIPS.

Почему же сами авторы не удостоверились в точности ссылок от моделей? Они-то точно помнят, какие реальные работы применяли в своем исследовании.

Вся ситуация подводит к главной иронии: если лучшие специалисты по ИИ, рискуя репутацией, не способны добиться от языковых моделей точности даже в деталях, то что это значит для обычных пользователей?