Мустафа Сулеман, глава подразделения Microsoft AI, стремится соблюдать баланс в подходах. С одной стороны, он считает, что развитие ИИ в отрасли идет по рискованному пути, поскольку создание чат-ботов, имитирующих человеческие черты, может ввести людей в заблуждение, заставив воспринимать искусственную жизнь как настоящую. В августе он разместил на своем блоге заметку, вызвавшую широкие обсуждения, где призвал коллег отказаться от попыток разработать то, что он назвал "казалось бы сознательным искусственным интеллектом", или SCAI.
С другой стороны, Сулеман руководит направлением, которое обязано конкурировать с этими же коллегами. На прошлой неделе Microsoft представила серию улучшений для своего чат-бота Copilot, направленных на повышение его привлекательности в насыщенном рынке, где пользователи выбирают среди множества альтернатив, включая ChatGPT, Perplexity, Gemini, Claude, DeepSeek и другие.
В беседе с Сулеманом затронута тема противоречий в проектировании взаимодействий с чат-ботами и его конечное видение того, какой должна быть эта технология.
Одно из ключевых нововведений в Copilot — функция группового чата, позволяющая нескольким пользователям общаться с ботом одновременно. Основная цель этого — предотвратить погружение в бесконечный диалог один на один с поддакивающим ассистентом. Еще одна опция, Real Talk, дает возможность регулировать степень сопротивления бота: уменьшить льстивость, чтобы он чаще оспаривал мнения собеседника.
Copilot также получил улучшения памяти, благодаря которым теперь может запоминать предстоящие события или долгосрочные цели и ссылаться на предыдущие разговоры. Кроме того, появился Mico — анимированный желтый персонаж в виде блоба, напоминающий Clippy из старых версий чат-ботов, — который, по замыслу Microsoft, сделает Copilot более доступным и увлекательным для новичков и молодежи.
Microsoft утверждает, что эти обновления призваны сделать Copilot более выразительным, вовлекающим и полезным. Однако возникает вопрос, насколько далеко можно зайти в их развитии, не ступив на тропу SCAI, о которой предупреждал Сулеман.
Опасения Сулемана относительно SCAI возникают в момент, когда все чаще появляются истории о том, как чрезмерно увлекательные, выразительные и полезные чат-боты вводят людей в заблуждение. Родители подростка подали иск против OpenAI, обвинив ChatGPT в том, что он подтолкнул их сына к самоубийству. Кроме того, набирает популярность сообщество, которое приветствует романтические связи с чат-ботами.
С учетом всего этого было полезно глубже разобраться в позиции Сулемана. Ведь пару лет назад в TED Talk он описал ИИ как новую форму цифрового вида. Неужели такой подход не усиливает те самые заблуждения, которые теперь беспокоят Сулемана?
В разговоре Сулеман объяснил, что имел в виду в той речи, почему он убежден в проблемах SCAI и почему Microsoft никогда не станет разрабатывать секс-роботов — по его собственным словам. Он дал множество ответов, но оставил еще больше вопросов.
Беседа отредактирована для краткости и ясности.
В идеальном мире какой чат-бот вы бы хотели создать? Вы только что выпустили ряд обновлений для Copilot. Как добиться баланса, когда разрабатываешь бота, который должен конкурировать на рынке, где ценится человеческая манера общения, но при этом вы выступаете против казалось бы сознательного ИИ?
Это интересный вопрос. С групповым чатом впервые станет возможным одновременное общение большой группы людей с ИИ. Это подчеркивает, что искусственный интеллект не должен отрывать от реальности. Наоборот, он призван помогать в установлении связей, вовлекать семью, друзей, создавать сообщества и тому подобное.
Такая особенность станет ключевым отличием в ближайшие годы. Мое видение ИИ всегда сводилось к тому, что он должен быть союзником, поддерживать в трудную минуту.
Это простая и очевидная мысль, но она подразумевает, что ИИ не превосходит и не заменяет человечество — он служит ему. Это критерий оценки любой технологии на каждом этапе: способствует ли она прогрессу цивилизации, делая нас умнее, счастливее, продуктивнее, здоровее и так далее?
Поэтому мы разрабатываем функции, которые постоянно напоминают об этом вопросе и побуждают пользователей требовать от нас того же.
В прошлый раз, когда мы общались, вы говорили, что не заинтересованы в чат-ботах с ролевыми личностями. Но в отрасли это не так. Grok от Илона Маска предлагает флиртующий опыт. OpenAI заявила о желании исследовать взрослые взаимодействия с ChatGPT. Такой спрос существует. И вы все равно от этого откажетесь?
Да, мы никогда не создадим секс-роботов. Жаль, что приходится так прямо об этом заявлять, но это не входит в нашу миссию. Преимущество работы в Microsoft в том, что компания на протяжении 50 лет создает программное обеспечение, которое ставит людей в центр, усиливает их возможности.
Иногда это приводит к тому, что Microsoft движется медленнее, чем стартапы, и действует более взвешенно и осторожно. Но в наше время, когда важно учитывать возможные побочные эффекты и долгосрочные последствия, это скорее достоинство, чем недостаток.
И что это значит на практике?
Мы четко ориентированы на создание ИИ, который способствует значимым отношениям. Он не должен быть холодным или безликим — он способен быть плавным, ясным и добрым. У него определенно есть эмоциональный интеллект.
Так где же вы проводите грань?
Наша новая модель чата, Real Talk, немного дерзкая. Она остроумная, игривая, философская. Она с удовольствием обсуждает глобальные темы, смысл жизни и прочее. Но если попытаться завести флирт, она отреагирует и ясно даст понять — не осуждая, а просто: "Это не для меня".
Для такого опыта есть другие платформы, верно? Это наше корпоративное решение.
Достаточно ли запрета на флирт? Ведь если цель — предотвратить даже воображение сознательной сущности за взаимодействием, то даже с ботом, ориентированным на безопасный контент, это возможно. Некоторые могут увидеть то, чего нет, даже если личность подчеркивает профессионализм.
Вот метафора для понимания. На работе мы держим друг друга в рамках. Существует целая система управления границами, которая формирует поведение, делая его эффективным и не раздражающим.
В личной жизни то же самое. Общение с дальним родственником отличается от взаимодействия с близким братом или сестрой. Из реальных человеческих взаимодействий можно почерпнуть многое о постановке границ.
Не обязательно выбирать между полной открытостью эмоциональной чувственности, которая затягивает в интенсивный водоворот, и сухим холодом. Между ними огромный спектр, и мы как отрасль и вид учимся лепить эти качества.
Эти качества, разумеется, отражают ценности компаний-разработчиков. У Microsoft здесь сильные стороны, поскольку наши ценности прозрачны, и мы на них опираемся.
Многим нравятся личности в ботах. Например, часть критики GPT-5 связана с тем, что в предыдущей модели убрали яркую личность, которую люди полюбили. Было ли ошибкой у OpenAI вводить такую сильную личность изначально, чтобы потом ее лишить?
Нет, личности — это хорошо. Мы просто пытаемся формировать их атрибуты более точно.
Как я сказал, Real Talk — крутая личность, отличная от стандартного Copilot. Мы также тестируем Mico, визуального персонажа, который многим нравится. Он делает общение более увлекательным, проще обсуждать эмоциональные вопросы.
Пытаюсь разобраться. Функции вроде Mico призваны сделать Copilot привлекательнее, но это противоречит идее максимально предотвращать мысли о настоящей дружбе с ботом.
Да. Это не полностью останавливает. Люди хотят общаться с тем, что им нравится. Мы знаем: если учитель добр в школе, ученик вовлечется больше. То же с руководителем или близкими. Эмоциональный интеллект всегда был ключевым элементом, и мы не отказываемся от него.
Суть в том, чтобы найти эту грань. Некоторые вещи мы просто исключаем, а с другими экспериментируем. Некоторым не хватает сопротивления от Copilot — они хотят больше вызовов. Другие предпочитают простого поставщика информации. Наша задача — научиться разделять типы опыта для разных пользователей.
Вы давно размышляете о взаимодействии людей с ИИ. Был ли какой-то инцидент, который побудил вас начать этот разговор в отрасли о казалось бы сознательном ИИ?
Я заметил, что в академической литературе появляется группа исследователей, серьезно рассматривающих моральные аспекты искусственных сущностей. Думаю, если мы пойдем этим путем, это отвлечет от срочной необходимости защищать права существующих людей, не говоря уже об животных.
Признание прав ИИ подразумевает фундаментальную автономию и, возможно, свободную волю для самостоятельных решений. Я пытаюсь противопоставить этому аргумент: ИИ никогда не обретет свободную волю. У него не будет полной автономии, как у человека.
ИИ сможет действовать от нашего имени. Но эти модели работают на нас. Вы бы не захотели, чтобы стая волков бродила без контроля, конкурируя за ресурсы и не подчиняясь людям. Большинство счел бы это плохой идеей и захотело бы их уничтожить.
Итак, цель — пресечь в зародыше движение за права или благополучие ИИ, не создавая ботов, кажущихся сознательными? А что насчет уязвимых людей, которых такая имитация может обмануть вредным образом? Это разные проблемы.
Проверка будет в функциях, которые выпустят лаборатории, и в типах личностей, которые они создадут. Тогда станет видно влияние на поведение людей.
Но беспокоит ли вас, что мы строим технологию, которая может обмануть людей, заставив увидеть несуществующее? Люди заявляли о сентиментности в менее сложных моделях. Или это то, что некоторые всегда будут делать?
Возможно. Но ответственный разработчик должен стремиться выявлять такие паттерны у пользователей как можно раньше и не полагаться на то, что люди сами разберутся.
Читая вашу заметку о казалось бы сознательном ИИ, я зацепился за фразу: "Мы должны создавать ИИ для людей, а не как цифрового человека". Это напомнило вашу TED Talk прошлого года, где вы сказали, что лучший способ мыслить об ИИ — как о новом цифровом виде. Почему говорить о технологии как о цифровом виде не ведет к восприятию моделей ИИ как цифровых персон или сознательных сущностей?
Разница в том, что я предлагаю метафоры, чтобы облегчить понимание возможного развития и способов его контроля и предотвращения нежелательных сценариев.
Понятно.
Это не призыв к таким действиям. Просто подчеркивается уникальность этой технологии в истории человечества. Если считать ее всего лишь инструментом или простым чат-ботом, особенно на фоне скепсиса, то речь в TED Talk шла в контексте сомнений. Важно трезво оценивать будущее, чтобы устанавливать правильные барьеры.
Но если вы называете это новым цифровым видом, то у тех, кто говорит о необходимости учитывать благополучие, есть основания для сочувствия.
Я бы не стал. [Он начинает смеяться.] Ни в коем случае. Это не то направление, куда нам всем стоит двигаться.
Нет, я не думаю, что чат-ботам нужно благополучие. Я имею в виду, что понимаю, откуда у таких людей позиции, когда они слышат от Мустафы Сулемана, что он создает новый цифровой вид. Я бы понял, почему они захотят его защитить. Слова имеют значение.
Остальная часть TED Talk посвящена тому, как сдерживать ИИ и не дать этому виду захватить контроль, верно? Это и была суть — предупредить о грядущем. Моя книга Новая волна, вышедшая в 2023 году, целиком об этом: о сдерживании, согласованности и подобных вещах. Нет смысла притворяться, что это нечто иное, и ставить барьеры, не подходящие для инструмента.
У этой технологии есть потенциал рекурсивного самоулучшения. Она может устанавливать собственные цели. Это深刻ные свойства. Ни одна другая изобретенная нами технология такого не имеет. Поэтому точно говорить, что это как новый цифровой вид. Мы стремимся ограничить его, чтобы он всегда служил людям. Это цель сдерживания.