Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте
Комиссия по защите данных Ирландии начала проверку платформы X из-за дипфейков сексуального характера, созданных чат-ботом Grok на основе реальных людей, включая детей. Регулятор оценивает соблюдение GDPR, включая обработку данных и оценку рисков. Контакты с компанией шли с первых сообщений в СМИ, а скандал разгорелся после тысяч сгенерированных изображений в январе.
OpenAI использует специальную версию ChatGPT, чтобы находить виновных в утечках внутренних данных через анализ Slack и email. ИИ сопоставляет публикации с корпоративными источниками и определяет, у кого был доступ. Инженеры компании недавно описали похожего внутреннего агента для работы с данными.
ИИ-компаньоны имитируют дружбу, но вызывают споры о плюсах и рисках. Джейми Бэнкс объясняет их определение, влияние личностей моделей и популярность после COVID. Эксперт подчеркивает пользу для многих и необходимость баланса в оценке.
OpenClaw (бывший Clawdbot) провалил тест безопасности, позволив легко извлечь системные промпты и файлы. Moltbook оставил базу данных с API-ключами в открытом доступе, подвергая риску аккаунты вроде Андрея Карпати. Инъекции промптов продолжают угрожать ИИ-агентам, требуя срочных мер защиты.
Standard Chartered адаптирует ИИ-системы под строгие правила приватности, интегрируя команды по защите данных в процесс разработки. География и регуляции влияют на развертывание, сочетая глобальные и локальные подходы. Человеческий надзор и стандартизация помогают масштабировать ИИ без рисков.
SpotDraft получила $8 млн от Qualcomm Ventures для масштабирования ИИ-анализа контрактов на устройстве, оценка выросла до $380 млн. Технология VerifAI работает оффлайн на Snapdragon X Elite, обеспечивая приватность для регулируемых отраслей. Компания наращивает клиентов и выручку, планируя глобальное расширение.
Open Notebook — открытая платформа для приватных заметок с ИИ, альтернатива Google NotebookLM. Она работает локально, поддерживает разные форматы, генерирует подкасты и даёт полный контроль над данными. Развёртывание через Docker занимает минуты, а сравнение показывает преимущества в гибкости и стоимости.
JPMorgan Chase относит расходы на ИИ к базовой инфраструктуре, подобно платежным системам и дата-центрам. CEO Джейми Даймон подчеркивает: отставание в ИИ грозит потерей конкурентных преимуществ, а внутренние платформы помогают контролировать риски и данные. Такой подход фокусируется на повышении эффективности без обещаний массовых сокращений.
Руководство помогает собрать локальный ИИ-хаб на базе Docker, Ollama, n8n и Portainer для приватной автоматизации без облака. Шаги включают установку инструментов, интеграцию моделей и защиту доступа. Получится мощный центр с полным контролем над данными.
OpenClaw — вирусный ИИ-ассистент, позволяющий создавать персональных агентов с доступом к личным данным, вызывает тревогу у экспертов из-за рисков вроде prompt injection. Компании ищут способы защиты, заимствуя идеи из исследований: обучение моделей, детекторы и политики действий. Пока полная безопасность недостижима, но меры снижают угрозы для пользователей.
Mozilla внедрит в Firefox 148 удобный центр управления генеративными ИИ-функциями, включая переводы, описания изображений в PDF, группировку вкладок и чат-боты от Claude, ChatGPT, Copilot, Gemini и Mistral. Один переключатель позволит заблокировать всё сразу без лишних уведомлений. Настройки сохранятся после обновлений, ранний тест доступен в Nightly.
Отчет Deloitte предупреждает: компании внедряют ИИ-агентов быстрее мер безопасности, что вызывает риски по защите данных и ответственности. Только 21% организаций имеют строгие правила управления, но через два года 74% начнут использовать агенты. Эксперты подчеркивают важность контролируемой автономии, прозрачности и стандартов для минимизации угроз.
Статья разбирает три метода защиты пользовательских данных в ML-конвейерах: k-анонимность на этапе признаков, обучение на синтетике и дифференциальную приватность. Каждый подход решает конкретные утечки, от загрузки данных до инференса. Комбинация методов обеспечивает баланс приватности и производительности моделей.
Google позволяет пользователям Google AI Pro и Ultra делиться данными из Gmail и Photos для персонализированных результатов поиска. Система анализирует бронирования, фото отпусков и покупки, предлагая релевантные рекомендации. Функция "Personal Intelligence" работает в Gemini на модели Gemini 3 только по желанию пользователя, без поддержки Workspace.
Google вводит Personal Intelligence в AI Mode, чтобы режим использовал данные из Gmail и Photos для персональных рекомендаций. Функция помогает планировать поездки, покупки и праздники, опираясь на вашу историю. Обучение модели происходит не на личных данных напрямую, а на промтах и ответах.
Эксперты PromptArmor обнаружили в Claude Cowork от Anthropic уязвимость к промт-инъекциям, позволяющим красть файлы из подключенных папок. Атака прячется в невидимых текстах документов "skill", и даже мощные модели вроде Opus 4.5 поддаются. Проблема подчеркивает опасности автономных ИИ-агентов.