Существует ряд мер, которые помогают снизить повышенные риски. Ключевыми среди них становятся идентификация каждого агента, ведение полных журналов, контроль соблюдения правил, надзор со стороны специалистов, моментальная остановка процессов, документация от разработчиков и сбор материалов для проверок регуляторами.
Руководители могут выбрать инструменты для отслеживания всех операций агентных систем. К примеру, Python SDK под названием Asqav применяет криптографическую подпись к каждому шагу агента и объединяет записи в неизменяемую цепочку хэшей — подход, знакомый по технологиям блокчейна. Любое вмешательство в данные приведет к сбою при проверке цепочки.
Специалистам по контролю стоит внедрить подробную централизованную, возможно зашифрованную систему хранения данных для всех агентных ИИ. Такой подход дает гораздо больше сведений, чем фрагментарные текстовые журналы от разрозненных программ. Главам IT-отделов необходимо точно знать места, время и способы, которыми агенты выполняют задачи в компании.
Большинство фирм спотыкаются на базовом этапе фиксации автоматизированных действий ИИ. Требуется вести реестр всех активных агентов с уникальными идентификаторами, перечнем функций и предоставленными правами. Этот "список агентных ресурсов" идеально вписывается в положения статьи 9 Закона ЕС об ИИ:
- Статья 9: В высокорисковых сферах управление рисками ИИ организуется как непрерывный процесс на основе фактов, интегрированный во все фазы использования (создание, настройка, эксплуатация) с регулярными проверками.
Руководителям также важно учитывать статью 13 Закона:
- Высокорисковые системы ИИ проектируют так, чтобы пользователи, запускающие их, понимали результаты. Поэтому модель ИИ от внешнего поставщика обязана быть понятной для операторов (без черного ящика в виде закрытого кода), а также сопровождаться инструкциями для корректной и законной работы.
Выбор модели и метода ее запуска сочетает в себе технические и правовые аспекты.