Сообщество немецкоязычной Википедии приняло решение о полном запрете контента, созданного искусственным интеллектом. Такой подход противоречит позиции других языковых разделов и Фонда Wikimedia, где правила куда мягче.
Голосование сообщества завершилось 15 февраля 2026 года, и теперь новая политика прямо запрещает размещать тексты, сгенерированные или отредактированные большими языковыми моделями. Ограничение распространяется на статьи и страницы обсуждений. За неоднократные нарушения грозит постоянная блокировка. Идею поддержали 208 голосов, против выступили 108, подробности здесь.
Исключения для переводов и исследований
Инструменты на базе ИИ, которые вносят изменения без проверки каждого шага человеком, тоже под запретом. Нельзя напрямую заимствовать формулировки, предложенные ИИ, если это выходит за рамки правок орфографии и грамматики.
Внешние материалы, которые явно созданы ИИ, не подходят в качестве источников для статей Википедии. Некоторые даже среди сторонников запрета называют его применение к страницам обсуждений чрезмерным.
Политика предусматривает исключения: допустимы переводы с других языковых версий Википедии при полной ручной проверке на точность. Исправления ошибок в орфографии и грамматике с помощью ИИ остаются разрешены. Исследования с поддержкой ИИ тоже можно вести, но все найденные материалы требуют ручной оценки.
Изображения, сгенерированные ИИ, допустят только в особых ситуациях после предварительного обсуждения — например, для иллюстрации статей о генераторах изображений на ИИ. Но использовать их вместо реальных фотографий, вроде портретов, нельзя.
Блокировка возможна только при неоспоримых доказательствах нарушения. Если есть сомнения, наказывать не станут.
Критики говорят о ненадежных способах обнаружения
Сторонники меры подчеркивают: Википедия может выделиться как проект на чисто человеческом контенте и дать отпор "мусору от ИИ" в сети. Галлюцинации — выдуманные ИИ факты — остаются серьезной проблемой, что признают даже разработчики вроде OpenAI.
Противники указывают на отсутствие надежных критериев для выявления с достаточной доказательной базой и предрекают бесконечные споры по подозрительным случаям. Один из комментариев на голосовании был прямолинейным: "Идея хорошая, но без методов обнаружения и четких процедур ее не воплотить".
Несколько голосовавших против считали, что столь радикальное решение требует квалифицированного большинства в две трети. Другие упрекнули запрет в том, что он оставляет Википедию "в прошлом", особенно когда использование ИИ в образовании набирает обороты.
Стратегия Фонда Wikimedia на 2025–2028 годы под девизом "Humans First" идет другим путем: она борется с низкокачественным контентом от ИИ, но позиционирует его как помощника редакторам — для поиска данных, проверки качества, выявления ошибок и борьбы с вандализмом.
В англоязычной Википедии выбрали точечное удаление плохого контента от ИИ через проект "AI Cleanup" и критерий быстрого удаления, а не общий запрет.
В проекте зарегистрировано свыше 200 волонтеров, которые ищут и убирают статьи от ИИ. Критерий G15 позволяет сразу удалять явно сгенерированный контент без долгих дебатов, но только при твердых доказательствах.
Википедия испытывает давление от ИИ-систем и Grokipedia
Новое правило выходит на фоне растущего давления на Википедию. Фонд Wikimedia предупредил в блоге: системы ИИ берут контент из Википедии, но все реже направляют пользователей на оригинальный сайт.
Фонд требует от разработчиков ИИ правильно указывать источники и лицензировать материалы через сервис Wikimedia Enterprise. Без финансовой поддержки модель открытого знания окажется под угрозой.
Параллельно Илон Маск запустил Grokipedia — онлайн-энциклопедию полностью на базе ИИ от своей компании xAI. Платформа стартовала с около 800 тысяч статей, созданных машинами.
Grokipedia демонстрирует заметные предвзятости, особенно в политических темах, и часто выдает предвзятый "мусор от ИИ" вместо нейтральных энциклопедических записей.