Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

ИИ в Standard Chartered под правилами приватности

Standard Chartered адаптирует ИИ-системы под строгие правила приватности, интегрируя команды по защите данных в процесс разработки. География и регуляции влияют на развертывание, сочетая глобальные и локальные подходы. Человеческий надзор и стандартизация помогают масштабировать ИИ без рисков.

28 января 2026 г.
4 мин
15

Банки, которые внедряют ИИ в повседневную работу, чаще всего сталкиваются с трудностями еще до начала обучения моделей. Разрешено ли вообще использовать эти данные? Где их можно хранить? Кто понесет ответственность после запуска системы? В Standard Chartered вопросы приватности определяют весь процесс создания и развертывания ИИ-систем.

Глобальным банкам приходится работать в разных странах с разными законами, поэтому такие решения редко бывают простыми. Одно и то же ИИ-приложение может подпадать под совершенно разные ограничения в зависимости от региона. В Standard Chartered команды по приватности теперь активно участвуют в проектировании, согласовании и контроле ИИ-систем.

Функции защиты данных стали основой для большинства правил, касающихся ИИ, отмечает David Hardoon, глобальный руководитель по внедрению ИИ в Standard Chartered. На деле это влияет на выбор данных для ИИ, уровень их прозрачности и способы мониторинга после запуска.

Приватность определяет, как работает ИИ

Standard Chartered уже использует ИИ-системы в реальных условиях. Переход от тестовых проектов к полноценной эксплуатации приносит неожиданные проблемы. В пилотах данные берутся из ограниченных и знакомых источников, а в продакшене ИИ тянет информацию из множества платформ с разной структурой и уровнем качества. При переходе от пилота к полноценным операциям обеспечение качества данных усложняется из-за множества upstream-систем и возможных различий в схемах, подчеркивает Hardoon.

David Hardoon, глобальный руководитель по внедрению ИИ в Standard Chartered
David Hardoon, Global Head of AI Enablement at Standard Chartered

Правила приватности накладывают дополнительные ограничения. Иногда реальные данные клиентов нельзя применять для обучения моделей, поэтому приходится обходиться анонимизированными наборами, что замедляет разработку и снижает эффективность. В боевом режиме масштабы огромны, и любые пробелы в контролях дают больший эффект. В рамках ответственного и ориентированного на клиентов внедрения ИИ мы отдаем приоритет принципам справедливости, этики, ответственности и прозрачности по мере расширения объема обработки данных, говорит Hardoon.

География и законы решают, где запускать ИИ

Местоположение для создания и развертывания ИИ-систем зависит от географии. В разных регионах действуют свои законы о защите данных, а некоторые страны жестко регулируют хранение и доступ к информации. Эти нормы напрямую влияют на подход Standard Chartered к ИИ, особенно если системы работают с клиентскими или персональными данными.

Суверенитет данных часто становится ключевым фактором при работе на разных рынках и в регионах, указывает Hardoon. Там, где требуют локализацию, ИИ приходится размещать на месте или проектировать так, чтобы чувствительная информация не покидала границы. В других случаях возможны общие платформы при наличии надежных мер защиты. Получается комбинация глобальных решений и локальных развертываний, ориентированная на местные законы, а не на единый технический стандарт.

Те же компромиссы возникают при выборе между централизованными платформами ИИ и локальными. Крупные компании стремятся делить модели, инструменты и надзор между рынками, чтобы избежать дублирования. Законы о приватности этому не всегда препятствуют. В общем, регуляции приватности не запрещают передачу данных напрямую, но требуют наличия подходящих мер контроля, поясняет Hardoon.

Есть ограничения: некоторые данные нельзя перемещать через границы вообще, а отдельные законы действуют за пределами страны сбора информации. Это сужает возможности центральных платформ и сохраняет необходимость локальных систем в определенных рынках. Для банков это приводит к многоуровневой схеме: общие базовые элементы плюс локализованные сценарии ИИ там, где того требуют регуляции.

Человеческий контроль остается в центре

По мере того как ИИ глубже проникает в принятие решений, вопросы объяснимости и согласия пользователей становятся все острее. Автоматизация ускоряет процессы, но не отменяет ответственности. Прозрачность и объяснимость приобрели еще большее значение, чем раньше, считает Hardoon. Даже при работе с внешними поставщиками ответственность лежит внутри компании. Это усиливает роль человеческого надзора за ИИ, особенно когда результаты затрагивают клиентов или регуляторные обязательства.

Люди играют решающую роль в рисках приватности, даже если технологии настроены идеально. Процессы и контроли могут быть продуманы, но все зависит от того, как сотрудники понимают и обрабатывают данные. Люди остаются самым важным фактором при реализации мер приватности, подчеркивает Hardoon. В Standard Chartered акцент делают на обучении и повышении осведомленности, чтобы команды четко знали, какие данные допустимы, как с ними работать и где проходят границы.

Расширение ИИ при растущем внимании регуляторов требует упрощения приватности и управления на практике. Один из путей в банке — стандартизация. Готовые шаблоны, архитектуры и классификации данных позволяют ускорять проекты без нарушения норм. Стандартизация и повторное использование играют важную роль, объясняет Hardoon. Закрепление правил по месту хранения данных, срокам retention и доступу превращает сложные требования в удобные reusable-компоненты для ИИ-проектов.

Когда все больше компаний переводит ИИ в рутинные операции, приватность перестает быть просто барьером compliance. Она определяет конструкцию систем, их расположение и уровень доверия. В банковской сфере эти изменения уже меняют облик ИИ на практике и устанавливают его границы.