YouTube против дипфейков: новый инструмент для защиты авторов
Платформа YouTube представила мощный инструмент, разработанный для помощи создателям контента в борьбе с растущей волной дипфейков — видео, в которых искусственный интеллект пугающе реалистично имитирует внешность или голос человека.
Последний эксперимент платформы, получивший название «система обнаружения сходства», призван уведомлять авторов об использовании их личности в ИИ-контенте без согласия и предоставлять механизм для принятия ответных мер.
На первый взгляд, эта инициатива выглядит как долгожданный щит для защиты цифровой идентичности.
Механизм работы и контекст проблемы
Как сообщает издание The Daily Star, система YouTube в автоматическом режиме сканирует загружаемые видео и помечает те, что потенциально совпадают с лицом или голосом известного автора. Создатели контента, участвующие в Партнерской программе, получают доступ к новой панели «Обнаружение контента», где могут просматривать отмеченные ролики и отправлять запросы на их удаление в случае выявления нарушений.
Идея кажется простой, однако основная сложность заключается в том, что технологии создания ИИ-подделок развиваются значительно быстрее, чем регуляторные механизмы для борьбы с ними. Многие пользователи уже сталкивались в TikTok или на YouTube с видео, где, например, фигурировал «Том Круз», и которые выглядели слишком реалистично, чтобы быть правдой. Это не обман зрения — создатели дипфейков постоянно совершенствуют свои навыки, что заставило издание The Verge назвать шаг YouTube давно назревшим.
Происходящее напоминает цифровую игру в кошки-мышки, и на данный момент «мыши» технологически превосходят «кошек».
Реакция сообщества и глобальные тренды
Новая система YouTube является одной из редких публичных попыток технологического гиганта предоставить пользователям реальный шанс на защиту. Однако не все встретили нововведение с восторгом. Некоторые авторы выражают обеспокоенность, что это может стать очередной «головной болью с автоматической модерацией», из-за которой под блокировку могут попасть добросовестные пародии или критические обзоры.
Другие эксперты, в том числе специалисты по цифровой политике, чье мнение приводит агентство Reuters в материале о предложении Индии по маркировке ИИ, рассматривают действия YouTube как часть более широкой тенденции. Правительства и платформы начинают осознавать, что прозрачность в области искусственного интеллекта больше не может быть опциональной. Например, новые правила в Индии требуют, чтобы все синтетические медиаматериалы имели четкую маркировку, и эта концепция находит все большую поддержку в мире.
Сложности обнаружения и сдержанный оптимизм
Технологии обнаружения не безупречны. Недавнее исследование, о котором писал ABC News, показало, что даже люди не в состоянии распознать дипфейки почти в трети случаев. Если с этой задачей не справляется человек с его интуицией и скептицизмом, то каковы шансы на успех у алгоритмов, работающих в огромных масштабах? Это похоже на попытку поймать дым сачком.
Тем не менее, есть и повод для оптимизма. Каждый подобный шаг — от панели обнаружения YouTube до положений Закона о цифровых услугах ЕС (Digital Services Act) о прозрачности ИИ — усиливает давление на индустрию с целью создания более подотчетного интернета. Некоторые создатели контента видят в этом «тренировочные колеса» для формирования нового типа медиаграмотности. Когда люди начнут чаще задаваться вопросом о подлинности видео, возможно, общество в целом перестанет принимать вирусный контент за чистую монету.
И все же, создается впечатление, что это гонка с превосходящим противником. Технологии создания дипфейков не просто развиваются — они мчатся на полной скорости. Инициатива YouTube — это уверенный старт и четкий сигнал: «Мы вас видим, ИИ-имитаторы».
Как пошутил один из авторов в обсуждении на Discord: «К тому времени, как YouTube поймает один мой фейк, появятся три новых, которые будут раздавать интервью».
Таким образом, эксперты выражают сдержанную надежду. Искусственный интеллект переписывает правила доверия в онлайн-пространстве. Инструмент YouTube, вероятно, не решит проблему дипфейков в одночасье, но, по крайней мере, кто-то пытается нажать на тормоз, пока ситуация окончательно не вышла из-под контроля.