Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте
Обзор раскрывает 10 ключевых концепций инженерии больших языковых моделей: инженерия контекста, вызов инструментов, MCP, A2A, семантическое кэширование и другие. Эти блоки помогают создавать надежные масштабируемые приложения ИИ. Понимание их объясняет стабильность систем и выходит за простые промты.
OpenAI открыла набор open source промтов для gpt-oss-safeguard, чтобы разработчики лучше защищали приложения от рисков для подростков вроде насилия и вредных челленджей. Созданы совместно с Common Sense Media и everyone.ai, они дополняют прошлые меры вроде Model Spec и родительского контроля. Несмотря на судебные проблемы компании, это полезный вклад для индустрии.
Гарри Тан, CEO Y Combinator, выложил открытую настройку gstack для Claude Code, которая имитирует работу команды и взорвала GitHub — 20 тысяч звезд и 2200 форков. Проект хвалят за профессионализм, но критикуют за хайп и простоту промтов. ИИ-модели вроде Claude, ChatGPT и Gemini одобрили подход.
Google Stax — инструмент от DeepMind и Google Labs для объективной оценки больших языковых моделей по персональным критериям. Поддерживает сравнение промптов и моделей вроде Gemini, GPT, Claude через API, с ручными и автоматическими оценщиками. Разработчики создают датасеты, проекты и анализируют метрики для реальных задач.
Разбирается проверенный техстек для вайб-кодинга: Next.js, Supabase, Stripe и другие инструменты. План сборки от MVP до платного продукта, пример промпта для Claude Code плюс опциональные дополнения. Стек прост, масштабируем и подходит для ИИ-агентов.
Spotify запускает Prompted Playlists — улучшенный ИИ-инструмент для создания персональных плейлистов по текстовым описаниям — для Premium в США и Канаде. Функция анализирует тренды, культуру и историю прослушиваний, позволяет выходить за привычки и делиться промптами. Это эволюция 2024 года, обе версии сосуществуют в бета-режиме на английском.
Большие языковые модели легко обмануть инъекцией промптов, в отличие от людей, которые полагаются на многоуровневый контекст для защиты. LLM путаются в суждениях из-за упрощенного понимания реальности и отсутствия инстинктов. Для ИИ-агентов проблема усугубляется, требуя новых подходов вроде физического воплощения.
ИИ вроде Claude Code и GitHub Copilot быстро генерирует рабочий Python-код, но он часто трудно поддерживать. Статья предлагает стратегии: настройка основ проекта вручную, строгая типизация, документация правил, конкретные запросы и проверки. Это позволяет получать читаемый и масштабируемый код без лишних усилий.
В подборке 7 ИИ-конструкторов сайтов, которые строят ресурсы по простому промту с бесплатными стартовыми планами. Каждый инструмент ориентирован на задачи вроде лендингов, бизнеса или блогов, с плюсами в скорости и дизайне. Сравнительная таблица упрощает выбор по ключевым сценариям.
OpenAI выпустила руководство по промптингу для фронтенд-дизайнеров, использующих GPT-5.4 для UX/UI. В нем строгие правила избегают шаблонных макетов, а реальный контент и низкий reasoning улучшают качество. Упомянуты навык для Codex и аналогичные разработки Google вроде Stitch и A2UI.
Инженерия промптов уступает место инженерии концепций, где взаимодействия строятся вокруг четких контрактов, модулей и метрик вместо хрупких строк. Подход упрощает разработку надежных ИИ-систем с использованием DSPy, структурированных выходов OpenAI и исследований вроде PaCE. Практические шаги и примеры показывают, как перейти без полной перестройки.
Claude Code ускоряет data science: от очистки данных и визуализации до прототипов моделей на pandas, matplotlib и scikit-learn. Статья разбирает ключевые приемы взаимодействия — от ссылок на файлы через @ до Plan Mode и расширенного мышления. Примеры промтов и кода помогут сразу применить советы на практике.
AI-агент OpenClaw уязвим к захвату через поддельные документы: хакеры настраивают бэкдор и получают полный контроль над ПК. Эксперты Zenity Labs демонстрируют постоянный доступ через Telegram и закрепление изменений. Тесты подтверждают глубокие проблемы безопасности, включая низкие баллы в ZeroLeaks.
Adobe обновила Acrobat новыми ИИ-инструментами: создание презентаций и подкастов из файлов, редактирование документов промтами. Функции используют данные из Spaces, интегрируются с Express и предлагают роли ассистентов. Это упрощает работу с контентом, конкурируя с Canva и NotebookLM.
Ученые Anthropic выявили «ось помощника» в ИИ-моделях: ролевые промты легко сдвигают чат-боты от полезной роли к мистическим образам. Философские и терапевтические темы усиливают дрейф, что рискованно. Метод activation capping снижает вред на 60%, помогая стабилизировать поведение.
Качественные тесты позволяют разрабатывать ИИ-агентов увереннее, выявляя проблемы заранее и ускоряя итерации. Статья разбирает структуру тестов, типы градеров, подходы для кодинга, разговоров, исследований и ПК-агентов, плюс roadmap от нуля и интеграцию с другими методами. Сохранены все ключевые метрики вроде pass@k, примеры YAML и бенчмарки.