Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте
ИИ-инструменты помогают моделировать сценарии для реки Колорадо, где сток упал на 20% и переговоры провалились. Бюро по рекультивации проводит миллионы симуляций, а новые системы на базе глубокого обучения и эволюционных алгоритмов вроде Borg прогнозируют сток и засухи. Модели выявляют компромиссы, но не решают вопрос распределения потерь между штатами и секторами.
Финансовые организации переходят к безопасному ИИ, чтобы ускорить доходы и избежать рисков. Надёжное управление данными, мониторинг и защита от атак позволяют быстро выводить продукты на рынок без штрафов. Это превращает регуляции в преимущество, а не обузу.
Nvidia создала SoC для постоянного зрения, который ловит лица за 787 мкс с 99% точностью при мощности ниже 5 мВт и 60 fps. Технология Alpha-Vision хранит 2 МБ данных в SRAM локально и применяет "race to sleep" для экономии. Это полезно для ноутбуков, роботов, дронов и беспилотных машин.
Ученые из Princeton и Варшавы увеличили глубину RL-сетей до 1024 слоев с помощью CRL, добившись 2–50x роста эффективности и новых действий вроде паркура у гуманоидов. Глубина превосходит ширину, но нужны остаточные связи, нормализация и активация. Метод обходит базовые RL в 8 из 10 задач, код открыт.
Британский стартап Wayve привлек $1,2 млрд на end-to-end технологии автономного вождения от Nvidia, Uber, Microsoft и автоконцернов Mercedes-Benz, Nissan, Stellantis. Общая сумма может достичь $1,5 млрд с допфинансированием от Uber для роботакси в Лондоне и 10+ рынках. Компания пионерит подход без HD-карт, планы включают коммерческие тесты в 2024 году.
Ученые из Калифорнийского университета в Сан-Диего создали новый тип RRAM без нитей, который позволяет выполнять матричные операции ИИ прямо в памяти и стековать в 8 слоев по 40 нм. Массив на 1 КБ показал 90% точности в непрерывном обучении на данных сенсоров, идеально для edge-устройств. Однако остается вызов с удержанием данных при высоких температурах.
Google DeepMind представил AlphaGenome — ИИ-инструмент для анализа некодирующей ДНК, которая составляет 98% генома и управляет регуляцией генов. Модель предсказывает 11 биологических сигналов на уровне одной пары оснований и обрабатывает участки до миллиона букв ДНК. Это помогает в исследованиях рака, редких болезней и разработке лекарств.
Параметры — внутренние настройки моделей машинного обучения, определяющие их работу и качество предсказаний. Статья разбирает, как они выглядят, сколько их бывает и какие проблемы возникают при обучении. Понимание параметров помогает лучше ориентироваться в машинном обучении.
Cognichip разрабатывает ИИ для ускорения проектирования чипов, обещая сократить затраты на 75% и сроки вдвое. Компания привлекла $60 млн под руководством Seligman Ventures, собрав всего $93 млн с 2024 года. Технология использует специализированные данные и конкурирует с Synopsys, Cadence и новыми стартапами.
Немецкие исследователи разработали Transformer с адаптивными циклами и банками памяти, который превосходит базовые и более крупные модели в математике на 22% и 6,4% соответственно. Циклы помогают в математическом мышлении, память — в повседневных знаниях, а слои специализируются: ранние экономят ресурсы, поздние работают интенсивнее.
Дженсен Хуанг на Nvidia GTC анонсировал DLSS 5 — ИИ-технологию, сочетающую 3D-графику с генеративными моделями для фотореализма в играх при сниженных вычислениях. Подход перспективен за геймингом: структурированные данные станут основой для ИИ в корпоративных платформах вроде Snowflake и Databricks.
Google применил модель Gemini для анализа миллионов новостей и создания датасета Groundsource о вспышковых наводнениях. На его основе обучили LSTM-модель, которая теперь прогнозирует риски в 150 странах через Flood Hub. Подход решает проблему нехватки данных в бедных регионах и может расшириться на другие угрозы.
Индийская лаборатория Sarvam выпустила модели ИИ с 30 и 105 миллиардами параметров, рассчитывая на успех открытых решений против гигантов. Новинки обучены с нуля на огромных объемах данных индийских языков и предназначены для голосовых ассистентов и чатов. Компания фокусируется на практических задачах и планирует open-source публикацию.
Рынки криптовалют служат идеальным полигоном для тестирования ИИ-моделей прогнозирования благодаря реал-тайм данным блокчейна и децентрализованным сетям. Нейросети вроде LSTM и гибридные системы анализируют цены, настроения и транзакции, эволюционируя от реактивных ботов к предвидящим агентам. DePIN решает проблемы вычислений, но остаются вызовы с галлюцинациями и масштабированием.
Фундаментальные модели меняют подход к прогнозированию временных рядов, предлагая zero-shot точность без дообучения. Мы разбираем пять сильных вариантов: Chronos-2, TiRex, TimesFM, Granite TTM R2 и Toto Open Base 1. Каждая подходит для разных задач — от одномерных до высокомерных с ковариатами.
Графовые нейронные сети (GNN) продолжают эволюционировать: от динамических моделей для реального времени до интеграции с большими языковыми моделями и усиленной защиты. Эти пять прорывов помогут решить задачи в рекомендациях, химии, безопасности и многом другом. Они уже меняют подходы к анализу сложных данных.