Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Компании АТР переносят ИИ на edge из-за затрат на вывод

Компании Азиатско-Тихоокеанского региона все чаще переносят инфраструктуру ИИ на edge, чтобы справиться с растущими затратами на вывод результатов и задержками. Akamai с Inference Cloud на базе NVIDIA Blackwell помогает решать эти проблемы, делая решения ближе к пользователям. Это особенно важно для отраслей вроде розницы и финансов, где скорость критична.

26 ноября 2025 г.
5 мин
0

Расходы на ИИ в Азиатско-Тихоокеанском регионе продолжают расти, но многим фирмам все еще сложно извлечь пользу из своих проектов. Большая часть проблем связана с инфраструктурой, которая поддерживает ИИ: большинство систем не предназначены для вывода результатов с нужной скоростью или масштабом, требуемыми реальными приложениями. Исследования отрасли показывают, что многие инициативы не достигают целей по отдаче от инвестиций, даже после значительных вложений в инструменты генеративного ИИ, именно из-за этих ограничений.

Этот разрыв подчеркивает, насколько инфраструктура влияет на производительность, расходы и возможность масштабирования развертываний в реальных условиях в этом регионе.

Akamai пытается решить эту задачу с помощью Inference Cloud, разработанного совместно с NVIDIA и использующего новейшие графические процессоры Blackwell. Концепция проста: если большинство приложений ИИ требуют принятия решений в реальном времени, то эти решения лучше принимать ближе к пользователям, а не в удаленных дата-центрах. По словам Akamai, такой подход позволяет компаниям контролировать затраты, снижать задержки и обеспечивать работу ИИ-сервисов, зависящих от мгновенных откликов.

Джей Дженкинс, технический директор по облачным вычислениям в Akamai, рассказал AI News, почему сейчас предприятия вынуждены пересматривать подходы к развертыванию ИИ и почему вывод результатов, а не обучение моделей, стал настоящим узким местом.

Почему проекты ИИ буксуют без подходящей инфраструктуры

Дженкинс отмечает, что разница между экспериментами и полноценным внедрением гораздо больше, чем ожидают многие организации. "Многие инициативы ИИ не приносят ожидаемой ценности для бизнеса, поскольку предприятия недооценивают разрыв между тестированием и производством", — говорит он. Даже при большом интересе к генеративному ИИ крупные счета за инфраструктуру, высокие задержки и сложности с запуском моделей в больших объемах часто тормозят развитие.

Джей Дженкинс, технический директор по облачным вычислениям в Akamai
Джей Дженкинс, технический директор по облачным вычислениям в Akamai.

Большинство компаний по-прежнему опираются на централизованные облака и крупные кластеры GPU. Но по мере роста нагрузки эти конфигурации становятся слишком дорогими, особенно в районах, удаленных от основных зон облачных провайдеров. Задержки тоже превращаются в серьезную проблему, когда модели выполняют несколько шагов вывода на большие расстояния. "ИИ силен ровно настолько, насколько мощна инфраструктура и архитектура, на которой он работает", — подчеркивает Дженкинс, добавляя, что задержки часто портят впечатление пользователей и снижают ценность, которую бизнес планировал получить. Он также упоминает мультиоблачные среды, сложные правила обработки данных и усиливающиеся требования к соответствию нормам как типичные препятствия, мешающие переходу от пилотных проектов к полноценному использованию.

Почему вывод результатов теперь требует больше внимания, чем обучение

В Азиатско-Тихоокеанском регионе внедрение ИИ переходит от небольших тестов к реальным приложениям и сервисам. Дженкинс указывает, что в этот процесс повседневный вывод результатов — а не редкие циклы обучения — поглощает основную часть вычислительных ресурсов. Поскольку многие организации запускают языковые, визуальные и мультимодальные модели на нескольких рынках, спрос на быстрый и надежный вывод растет быстрее, чем прогнозировалось. Именно поэтому вывод стал ключевым ограничением в регионе. Модели теперь должны работать с разными языками, регуляциями и средами данных, часто в реальном времени. Это создает огромную нагрузку на централизованные системы, которые изначально не проектировались для такого уровня отзывчивости.

Как инфраструктура на краю улучшает производительность и снижает затраты ИИ

Дженкинс объясняет, что перенос вывода ближе к пользователям, устройствам или агентам может кардинально изменить баланс расходов. Такой шаг сокращает путь, который проходит данные, и ускоряет отклики моделей. Кроме того, он избавляет от необходимости перекачивать огромные объемы информации между основными облачными узлами.

Физические системы ИИ — такие как роботы, автономные машины или инструменты умных городов — зависят от решений, принимаемых за миллисекунды. Если вывод происходит удаленно, эти системы не функционируют как задумано.

Экономия от более локализованных развертываний может быть значительной. Анализ Akamai показывает, что предприятия в Индии и Вьетнаме добиваются существенного снижения затрат на запуск моделей генерации изображений, размещая нагрузки на краю, а не в централизованных облаках. Более эффективное использование GPU и уменьшение сборов за исходящий трафик внесли основной вклад в эту экономию.

Где ИИ на краю набирает популярность

Начальный спрос на вывод на краю самый высокий в отраслях, где даже минимальные задержки влияют на доходы, безопасность или вовлеченность пользователей. Розничная торговля и электронная коммерция — среди первых, кто внедряет это, поскольку покупатели часто уходят от медленных интерфейсов. Персонализированные рекомендации, поиск и мультимодальные инструменты для шопинга работают заметно лучше, когда вывод локальный и быстрый.

Финансовый сектор — еще одна сфера, где задержки напрямую сказываются на ценности. Дженкинс говорит, что задачи вроде проверки на мошенничество, одобрения платежей и скоринга транзакций опираются на цепочки ИИ-решений, которые должны происходить за миллисекунды. Запуск вывода ближе к месту создания данных помогает финансовым компаниям ускоряться и удерживать информацию в пределах регуляторных границ.

Почему партнерства облаков и GPU сейчас особенно важны

По мере роста нагрузок на ИИ компаниям нужна инфраструктура, которая поспевает за ними. Дженкинс отмечает, что это подталкивает провайдеров облаков и производителей GPU к более тесному сотрудничеству. Работа Akamai с NVIDIA — один из примеров: графические процессоры, DPUs и ПО для ИИ развертываются в тысячах точек на краю.

Цель — создать "сеть доставки ИИ", которая распределяет вывод по множеству локаций вместо концентрации всего в нескольких регионах. Это улучшает производительность, но также помогает с соблюдением норм. Дженкинс подчеркивает, что почти половина крупных организаций АТР сталкивается с разными правилами данных на рынках, что делает локальную обработку еще более актуальной. Новые партнерства сейчас определяют следующий этап инфраструктуры ИИ в регионе, особенно для задач, требующих минимальных задержек.

Безопасность закладывается в такие системы с самого начала, говорит Дженкинс. Контроли zero-trust,