Комментарии лидеров Силиконовой долины вызывают волнения
Влиятельные фигуры из Силиконовой долины, включая специального советника Белого дома по ИИ и криптовалютам Дэвида Сакса и главного стратега OpenAI Джейсона Куона, на этой неделе спровоцировали бурные обсуждения в сети своими высказываниями о организациях, продвигающих безопасность искусственного интеллекта. В отдельных случаях они утверждали, что некоторые сторонники безопасности ИИ не так уж бескорыстны, как кажутся, и действуют либо в своих интересах, либо под влиянием миллиардеров, манипулирующих ими из-за кулис.
Представители групп по безопасности ИИ, пообщавшиеся с TechCrunch, считают эти обвинения от Сакса и OpenAI очередной попыткой Силиконовой долины запугать своих критиков, хотя и не первой. В 2024 году некоторые венчурные фирмы распространяли слухи о том, что калифорнийский законопроект о безопасности ИИ SB 1047 отправит основателей стартапов за решетку. Институт Brookings назвал этот слух одной из многих "искажений" относительно законопроекта, но губернатор Гэвин Ньюсом все равно наложил на него вето.
Независимо от того, намеревались ли Сакс и OpenAI запугивать оппонентов, их действия достаточно напугали нескольких сторонников безопасности ИИ. Многие руководители некоммерческих организаций, к которым обратился TechCrunch на прошлой неделе, попросили сохранить их анонимность, чтобы защитить свои группы от возможной мести.
Этот скандал подчеркивает нарастающее напряжение в Силиконовой долине между разработкой ИИ с учетом ответственности и превращением его в масштабный потребительский продукт. Кроме того, в Калифорнии был принят новый закон о безопасности ИИ для регулирования чат-ботов, а OpenAI определила свою позицию по поводу эротического контента в ChatGPT.
Обвинения Дэвида Сакса в адрес Anthropic
Во вторник Сакс опубликовал пост в X, в котором утверждал, что Anthropic, компания, ранее выражавшая обеспокоенность способностью ИИ способствовать безработице, кибератакам и катастрофическим ущербам для общества, просто занимается запугиванием, чтобы добиться принятия законов, выгодных ей самой и утопящих мелкие стартапы в бюрократии. Anthropic стала единственной крупной лабораторией ИИ, которая поддержала калифорнийский законопроект Senate Bill 53 (SB 53), устанавливающий требования к отчетности о безопасности для больших компаний в сфере ИИ; этот закон был подписан в прошлом месяце.
Сакс реагировал на вирусный эссе сооснователя Anthropic Джека Кларка о своих опасениях по поводу ИИ. Кларк представил этот текст в виде речи на конференции по безопасности ИИ Curve в Беркли несколько недель назад. Находясь в зале, это казалось искренним рассказом технолога о своих сомнениях относительно собственных продуктов, но Сакс увидел все иначе.
Anthropic проводит изощренную стратегию захвата регуляторов на основе запугивания. Она в основном ответственна за регуляторный ажиотаж на уровне штатов, который наносит ущерб экосистеме стартапов.
Сакс заявил, что Anthropic реализует "изощренную стратегию захвата регуляторов", хотя стоит отметить, что по-настоящему хитрая стратегия, вероятно, не включала бы создание врага в лице федерального правительства. В последующем посте в X Сакс указал, что Anthropic последовательно позиционирует себя как противника администрации Трампа.
Повестки OpenAI некоммерческим организациям
Также на этой неделе главный стратег OpenAI Джейсон Куон написал пост в X, объясняя, почему компания рассылает повестки в суд некоммерческим организациям по безопасности ИИ, таким как Encode, которая выступает за ответственную политику в отношении ИИ. (Повестка в суд — это судебный приказ, требующий предоставления документов или свидетельских показаний.) Куон отметил, что после иска Илона Маска против OpenAI — по поводу того, что создатель ChatGPT отклонился от своей некоммерческой миссии — компания заподозрила неладное в том, как несколько организаций также выразили несогласие с ее реструктуризацией. Encode подала экспертное заключение в поддержку иска Маска, а другие некоммерческие группы публично осудили реструктуризацию OpenAI.
В этой истории гораздо больше, чем кажется на первый взгляд.
Как всем известно, мы активно защищаемся от Илона в судебном процессе, где он пытается нанести ущерб OpenAI в свою финансовую выгоду.
Encode, организация, где @_NathanCalvin занимает должность генерального юрисконсульта, была одной из...
"Это вызвало вопросы о прозрачности: кто их финансирует и была ли какая-то координация", — сказал Куон.
NBC News сообщило на этой неделе, что OpenAI разослала широкие повестки Encode и еще шести некоммерческим организациям, критиковавшим компанию, требуя их переписку, связанную с двумя главными оппонентами OpenAI — Маском и CEO Meta Марком Цукербергом. OpenAI также запросила у Encode коммуникации, касающиеся поддержки SB 53.
Один известный лидер в области безопасности ИИ рассказал TechCrunch о растущем разрыве между командой по государственным делам OpenAI и ее исследовательским подразделением. Хотя исследователи по безопасности OpenAI часто публикуют отчеты, раскрывающие риски ИИ-систем, подразделение по политике лоббировало против SB 53, предпочитая единые правила на федеральном уровне.
Глава отдела соответствия миссии OpenAI Джошуа Ачиам высказался о рассылке повесток некоммерческим организациям в посте в X на этой неделе.
"Рискуя, возможно, всей своей карьерой, я скажу: это не выглядит хорошо", — отметил Ачиам.
Брендан Стайнхаузер, CEO некоммерческой организации Alliance for Secure AI (которую OpenAI не привлекала повестками), сообщил TechCrunch, что OpenAI, похоже, убеждена, будто ее критики — часть заговора, возглавляемого Маском. Однако он утверждает, что это не так, и значительная часть сообщества по безопасности ИИ довольно критична к практикам безопасности xAI или их отсутствию.
"Со стороны OpenAI это предназначено для того, чтобы заставить замолчать критиков, запугать их и отпугнуть другие некоммерческие организации от подобных действий", — сказал Стайнхаузер. "Что касается Сакса, я думаю, он обеспокоен тем, что движение за безопасность ИИ набирает обороты и люди хотят привлекать эти компании к ответственности".
Реакции и общественное мнение
Срирам Кришнан, старший советник Белого дома по политике ИИ и бывший генеральный партнер a16z, также вмешался в дискуссию на этой неделе своим постом в социальных сетях, назвав сторонников безопасности ИИ оторванными от реальности. Он призвал организации по безопасности ИИ общаться с "людьми из реального мира, которые используют, продают и внедряют ИИ в своих домах и организациях".
Недавнее исследование Pew показало, что примерно половина американцев больше обеспокоена, чем воодушевлена ИИ, хотя неясно, что именно их тревожит. Другое недавнее исследование углубилось в детали и обнаружило, что американские избиратели больше заботятся о потерях рабочих мест и дипфейках, чем о катастрофических рисках, вызванных ИИ, на которых в основном сосредоточено движение за безопасность ИИ.
Решение этих вопросов безопасности может произойти за счет быстрого роста отрасли ИИ — компромисс, который беспокоит многих в Силиконовой долине. С инвестициями в ИИ, поддерживающими значительную часть экономики США, страх перед чрезмерным регулированием вполне понятен.
Но после нескольких лет нерегулируемого прогресса в ИИ движение за безопасность, похоже, набирает реальный импульс к 2026 году. Попытки Силиконовой долины противостоять группам, ориентированным на безопасность, могут быть признаком того, что они достигают цели.