Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Почему экс-глава исследований Cohere отвергает гонку масштабирования

Сара Хукер, бывший руководитель исследований Cohere, основала Adaption Labs, чтобы разработать ИИ-системы, способные эффективно адаптироваться и учиться на реальном опыте, отвергая неэффективное масштабирование моделей. Это отражает растущий скептицизм в индустрии по поводу традиционных подходов, подкрепленный исследованиями о diminishing returns. Если подход сработает, он может радикально изменить доступ к ИИ и его применение.

23 октября 2025 г.
6 мин
1

Лаборатории искусственного интеллекта активно возводят дата-центры размером с Манхэттен, каждый из которых обходится в миллиарды долларов и потребляет энергию, сравнимую с расходом небольшого города. Этот процесс подпитывается твердой уверенностью в концепции "масштабирования" — убеждении, что увеличение вычислительных мощностей в существующих методах обучения ИИ в конечном итоге приведет к созданию сверхинтеллектуальных систем, способных справляться с самыми разнообразными задачами.

Однако все больше специалистов в области ИИ выражают мнение, что расширение больших языковых моделей приближается к своим пределам, и для дальнейшего повышения производительности потребуются иные инновации.

Именно на такую перспективу делает ставку Сара Хукер, бывший вице-президент по исследованиям ИИ в Cohere и выпускница Google Brain, запуская свой новый проект — Adaption Labs. Она совместно с Судипом Роем, также ветераном Cohere и Google, основала компанию, которая опирается на тезис о том, что масштабирование больших языковых моделей превратилось в неэффективный способ выжимать дополнительную производительность из систем ИИ. Хукер покинула Cohere в августе и в этом месяце анонимно объявила о запуске стартапа, чтобы расширить набор кандидатов на вакансии.

Я начинаю новый проект.

Работаю над тем, что считаю наиболее значимой задачей: создание мыслящих машин, способных адаптироваться и непрерывно обучаться.

У нас сформирована команда из высококвалифицированных специалистов-основателей, и мы ищем инженеров, операционных специалистов, дизайнеров.

Присоединяйтесь: https://t.co/eKlfWAfuRy

— Сара Хукер (@sarahookr) 7 октября 2025

В беседе с TechCrunch Хукер рассказала, что Adaption Labs разрабатывает системы ИИ, которые могут непрерывно приспосабливаться и извлекать знания из реального опыта, делая это с высокой эффективностью. Она воздержалась от раскрытия деталей методологии или информации о том, опирается ли компания на большие языковые модели или иную архитектуру.

"Мы достигли переломного момента, когда очевидно, что простое масштабирование этих моделей — подходы, пропитанные идеей бесконечного роста, которые кажутся заманчивыми, но невероятно скучными, — не привело к появлению интеллекта, способного ориентироваться и взаимодействовать с окружающим миром", — отметила Хукер.

По словам Хукер, адаптация лежит в основе процесса обучения. К примеру, если удариться ногой о ножку обеденного стола, в следующий раз человек будет осторожнее обходить его. Лаборатории ИИ пытались воплотить эту идею через обучение с подкреплением (RL), позволяющее моделям ИИ извлекать уроки из ошибок в контролируемых условиях. Тем не менее современные методы RL не помогают моделям, уже развернутым в производственной среде — то есть используемым клиентами, — учиться на ошибках в реальном времени. Они продолжают повторять одни и те же промахи.

Некоторые лаборатории ИИ предлагают услуги по консультированию для тонкой настройки моделей под специфические нужды предприятий, но это стоит дорого. Сообщается, что OpenAI требует от клиентов потратить не менее 10 миллионов долларов на сотрудничество с компанией, чтобы получить доступ к таким услугам по кастомизации.

"У нас есть ограниченное число ведущих лабораторий, которые определяют круг моделей ИИ, подаваемых одинаково всем пользователям, и их адаптация обходится очень дорого", — пояснила Хукер. "На самом деле, это уже не обязательно должно быть так, и системы ИИ могут эффективно обучаться на основе окружающей среды. Доказательство этого полностью изменит баланс сил в контроле и формировании ИИ, а также определит, кому в итоге эти модели будут служить".

Adaption Labs становится очередным индикатором того, что вера отрасли в масштабирование больших языковых моделей начинает пошатываться. Недавняя работа ученых из MIT установила, что крупнейшие модели ИИ в мире могут вскоре столкнуться с убывающей отдачей. Атмосфера в Сан-Франциско тоже меняется. Любимый подкастер ИИ-сообщества Дваркеш Патель недавно провел ряд скептических диалогов с известными исследователями ИИ.

Ричард Саттон, лауреат премии Тьюринга и признанный "отцом обучения с подкреплением", в сентябре сказал Пателю, что большие языковые модели не способны по-настоящему масштабироваться, поскольку не черпают знания из реального опыта. В этом месяце Андреј Карпати, один из первых сотрудников OpenAI, поделился с Пателем сомнениями относительно долгосрочного потенциала RL для улучшения моделей ИИ.

Такие опасения не новы. В конце 2024 года некоторые исследователи ИИ выразили обеспокоенность, что масштабирование моделей через предварительное обучение — процесс, в котором ИИ изучают паттерны из огромных массивов данных, — сталкивается с убывающей отдачей. До того момента предварительное обучение служило ключевым фактором успеха для OpenAI и Google в совершенствовании своих систем.

Эти проблемы с предварительным обучением теперь проявляются в данных, но индустрия ИИ обнаружила альтернативные пути для повышения качества моделей. В 2025 году прорывы в области моделей ИИ с рассуждениями, которые тратят дополнительное время и ресурсы на размышления над задачами перед выдачей ответа, расширили возможности систем ИИ.

Лаборатории ИИ убеждены, что масштабирование обучения с подкреплением и моделей с рассуждениями станет новым направлением. Исследователи OpenAI ранее сообщили TechCrunch, что создали свою первую модель с рассуждениями o1, полагая, что она хорошо поддается расширению. Недавно ученые Meta и Periodic Labs опубликовали статью, изучающую, как RL может дальше повысить производительность, — исследование, которое, по данным, обошлось более чем в 4 миллиона долларов, подчеркивая высокую стоимость современных подходов.

В отличие от них Adaption Labs стремится к следующему прорыву и доказать, что обучение на опыте может быть гораздо дешевле. Стартап вел переговоры о привлечении от 20 до 40 миллионов долларов на посевном раунде в начале осени, как рассказали три инвестора, ознакомившихся с презентациями. По их словам, раунд завершен, хотя точная сумма неизвестна. Хукер отказалась комментировать.

"Мы настроены на очень амбициозные цели", — ответила Хукер на вопрос об инвесторах.

Ранее Хукер возглавляла Cohere Labs, где обучала компактные модели ИИ для корпоративных сценариев. Сейчас такие миниатюрные системы регулярно превосходят более крупные аналоги в тестах на программирование, математику и рассуждения — тенденцию, которую Хукер намерена развивать дальше.

Она также завоевала репутацию за расширение доступа к исследованиям ИИ по всему миру, нанимая таланты из недооцененных регионов, включая Африку. Хотя Adaption Labs скоро откроет офис в Сан-Франциско, Хукер планирует набирать сотрудников глобально.

Если Хукер и Adaption Labs правы насчет ограничений масштабирования, последствия будут грандиозными. Миллиарды уже вложены в расширение больших языковых моделей с расчетом на то, что более крупные системы приведут к общему искусственному интеллекту. Но возможно, что настоящее адаптивное обучение окажется не только мощнее, но и значительно эффективнее.