Банки, которые внедряют ИИ в повседневную работу, чаще всего сталкиваются с трудностями еще до начала обучения моделей. Разрешено ли вообще использовать эти данные? Где их можно хранить? Кто понесет ответственность после запуска системы? В Standard Chartered вопросы приватности определяют весь процесс создания и развертывания ИИ-систем.
Глобальным банкам приходится работать в разных странах с разными законами, поэтому такие решения редко бывают простыми. Одно и то же ИИ-приложение может подпадать под совершенно разные ограничения в зависимости от региона. В Standard Chartered команды по приватности теперь активно участвуют в проектировании, согласовании и контроле ИИ-систем.
Функции защиты данных стали основой для большинства правил, касающихся ИИ, отмечает David Hardoon, глобальный руководитель по внедрению ИИ в Standard Chartered. На деле это влияет на выбор данных для ИИ, уровень их прозрачности и способы мониторинга после запуска.
Приватность определяет, как работает ИИ
Standard Chartered уже использует ИИ-системы в реальных условиях. Переход от тестовых проектов к полноценной эксплуатации приносит неожиданные проблемы. В пилотах данные берутся из ограниченных и знакомых источников, а в продакшене ИИ тянет информацию из множества платформ с разной структурой и уровнем качества. При переходе от пилота к полноценным операциям обеспечение качества данных усложняется из-за множества upstream-систем и возможных различий в схемах, подчеркивает Hardoon.

Правила приватности накладывают дополнительные ограничения. Иногда реальные данные клиентов нельзя применять для обучения моделей, поэтому приходится обходиться анонимизированными наборами, что замедляет разработку и снижает эффективность. В боевом режиме масштабы огромны, и любые пробелы в контролях дают больший эффект. В рамках ответственного и ориентированного на клиентов внедрения ИИ мы отдаем приоритет принципам справедливости, этики, ответственности и прозрачности по мере расширения объема обработки данных, говорит Hardoon.
География и законы решают, где запускать ИИ
Местоположение для создания и развертывания ИИ-систем зависит от географии. В разных регионах действуют свои законы о защите данных, а некоторые страны жестко регулируют хранение и доступ к информации. Эти нормы напрямую влияют на подход Standard Chartered к ИИ, особенно если системы работают с клиентскими или персональными данными.
Суверенитет данных часто становится ключевым фактором при работе на разных рынках и в регионах, указывает Hardoon. Там, где требуют локализацию, ИИ приходится размещать на месте или проектировать так, чтобы чувствительная информация не покидала границы. В других случаях возможны общие платформы при наличии надежных мер защиты. Получается комбинация глобальных решений и локальных развертываний, ориентированная на местные законы, а не на единый технический стандарт.
Те же компромиссы возникают при выборе между централизованными платформами ИИ и локальными. Крупные компании стремятся делить модели, инструменты и надзор между рынками, чтобы избежать дублирования. Законы о приватности этому не всегда препятствуют. В общем, регуляции приватности не запрещают передачу данных напрямую, но требуют наличия подходящих мер контроля, поясняет Hardoon.
Есть ограничения: некоторые данные нельзя перемещать через границы вообще, а отдельные законы действуют за пределами страны сбора информации. Это сужает возможности центральных платформ и сохраняет необходимость локальных систем в определенных рынках. Для банков это приводит к многоуровневой схеме: общие базовые элементы плюс локализованные сценарии ИИ там, где того требуют регуляции.
Человеческий контроль остается в центре
По мере того как ИИ глубже проникает в принятие решений, вопросы объяснимости и согласия пользователей становятся все острее. Автоматизация ускоряет процессы, но не отменяет ответственности. Прозрачность и объяснимость приобрели еще большее значение, чем раньше, считает Hardoon. Даже при работе с внешними поставщиками ответственность лежит внутри компании. Это усиливает роль человеческого надзора за ИИ, особенно когда результаты затрагивают клиентов или регуляторные обязательства.
Люди играют решающую роль в рисках приватности, даже если технологии настроены идеально. Процессы и контроли могут быть продуманы, но все зависит от того, как сотрудники понимают и обрабатывают данные. Люди остаются самым важным фактором при реализации мер приватности, подчеркивает Hardoon. В Standard Chartered акцент делают на обучении и повышении осведомленности, чтобы команды четко знали, какие данные допустимы, как с ними работать и где проходят границы.
Расширение ИИ при растущем внимании регуляторов требует упрощения приватности и управления на практике. Один из путей в банке — стандартизация. Готовые шаблоны, архитектуры и классификации данных позволяют ускорять проекты без нарушения норм. Стандартизация и повторное использование играют важную роль, объясняет Hardoon. Закрепление правил по месту хранения данных, срокам retention и доступу превращает сложные требования в удобные reusable-компоненты для ИИ-проектов.
Когда все больше компаний переводит ИИ в рутинные операции, приватность перестает быть просто барьером compliance. Она определяет конструкцию систем, их расположение и уровень доверия. В банковской сфере эти изменения уже меняют облик ИИ на практике и устанавливают его границы.