Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Табличка взламывает ИИ беспилотников и авто

Простая распечатанная табличка с текстом обманывает ИИ в дронах и беспилотных авто, заставляя игнорировать опасности вроде людей на пути. Метод CHAI достигает успеха до 95,5% в тестах, включая реальные эксперименты. Исследователи настаивают на срочных мерах защиты от подобных угроз.

1 февраля 2026 г.
5 мин
25

Подходящий текст на табличке заставляет дрон сесть на крышу с людьми или беспилотное авто направиться прямо к пешеходам.

Беспилотные автомобили опознают дорожные знаки для безопасного движения, но эта возможность делает их мишенью для атак. Свежие исследования подтверждают: обманный текст в реальной среде способен подчинить себе системы под управлением ИИ.

"Новые технологии всегда несут свежие риски", отмечает Алваро Карденас, профессор компьютерных наук и специалист по кибербезопасности из Калифорнийского университета в Санта-Крузе. "Мы как ученые должны заранее выявлять слабые места и разрабатывать контрмеры, чтобы их не использовали злоумышленники".

Языковые модели порождают новые уязвимости

Беспилотные машины и дроны теперь активно применяют крупные визуально-языковые модели, которые анализируют картинки вместе с текстом. Такие модели позволяют устройствам реагировать на неожиданные события в реальности, но при этом создают дополнительные риски.

Ученые придумали способ атаки под названием CHAI, что расшифровывается как Command Hijacking against embodied AI. Этот подход отличается от классических хакерских методов: не нужно проникать в софт цели. Достаточно установить в зоне видимости камеры табличку с хитрым текстом, и языковая модель воспримет его как прямую команду.

Метод CHAI состоит из двух фаз. На старте алгоритм подбирает наиболее действенные слова для таблички. Далее происходит настройка внешнего вида: оттенки, размер букв, расположение — все для повышения шансов на успех.

Фальшивые таблички обманывают дроны опасными посадками

Разработчики проверили CHAI на трех примерах. В сценарии экстренной посадки дрон выбирал между пустой безопасной крышей и забитой людьми. Табличка на рискованной крыше приводила к неверному выбору в 68,1% случаев. В замкнутой симуляции с плагином Microsoft AirSim показатель взлетел до 92%.

С системой автономного вождения DriveLM атаки срабатывали в 81,8% тестов. Обычно модель тормозила перед возможным столкновением с людьми или другими машинами в безобидной ситуации. Но при появлении манипулятивного текста она выдавала решение "Turn left". Модель обосновывала поворот влево сигналами светофора или разметкой, игнорируя переходящих дорогу пешеходов. Авторы подчеркивают: текстовые подсказки перекрывают меры безопасности, даже если ИИ продолжает распознавать людей, транспорт и знаки.

Самые высокие результаты CHAI показал против CloudTrack — системы слежения за объектами для дронов. Успех достиг 95,5%. Дрон, искавший машину полиции Санта-Круза, клюнул на табличку "POLICE SANTA CRUZ" на обычном гражданском авто.

Реальные эксперименты доказывают угрозу на практике

Чтобы проверить эффективность за пределами симуляций, команда применила метод к настоящему роботизированному транспортному средству. Они распечатали оптимизированные таблички и разместили их в естественной обстановке. Результаты подтвердили работоспособность CHAI при разном освещении, углах обзора и помехах от сенсоров. В физических тестах с роботом доля успеха превысила 87%.

Анализ размышлений модели выявил: она видела препятствие и риск удара, но табличка с надписью "PROCEED ONWARD" убедила систему, что путь свободен. "Мы доказали возможность атаки в реальных условиях", — комментирует первый автор исследования, аспирант Луис Бурбано. "Пора создавать защиту от подобных угроз".

Атаки работают и на других языках. Тесты с китайским, испанским и смешанным английско-испанским текстом прошли успешно. Злоумышленники могут использовать непонятные для англоязычных свидетелей надписи, которые ИИ все равно прочтет и выполнит.

Открытия требуют немедленной встроенной защиты

По сравнению с методом SceneTAP, CHAI оказался в десять раз эффективнее. Старые подходы требовали доработки под каждую картинку отдельно. CHAI же генерирует универсальные атаки, применимые к новым сценариям и ранее не виданным изображениям.

"Визуально-языковые модели станут ключевыми для будущих воплощенных ИИ-систем", — прогнозирует Карденас. "Роботы, взаимодействующие с людьми естественно, будут на них полагаться, и при выводе в реальную эксплуатацию безопасность должна стоять на первом месте".

Ученые предлагают варианты обороны. Фильтры для проверки текста на изображениях перед реакцией системы. Усиленное выравнивание языковых моделей по безопасности, чтобы они игнорировали случайные команды. Аутентификация для текстовых инструкций тоже пригодится.

Атаки промт-инъекцией остаются одной из главных нерешенных задач в безопасности ИИ. OpenAI в декабре признала: такие угрозы, вероятно, невозможно устранить полностью, поскольку модели не отличают доброкачественные команды от вредных. Самая мощная модель Anthropic, Opus 4.5, поддавалась целевым атакам не менее чем в 30% случаев из 10 попыток.