
Сайты по всему миру вводят ограничения на применение ИИ в редакторской работе. Википедия пошла дальше и запретила редакторам использовать генерируемый ИИ-текст в статьях, хотя полностью не исключила такие инструменты из процесса редактирования.
В свежем обновлении политики теперь прямо указано, что применение больших языковых моделей для создания или доработки контента статей недопустимо. Это уточняет прежнюю неоднозначную формулировку, где запрещалось только создавать новые статьи с нуля на базе LLM.
Вопрос с ИИ в статьях Википедии давно вызывает споры среди огромного сообщества волонтёров-редакторов. По данным 404 Media, новая норма получила одобрение большинства на голосовании — 40 голосов «за» против 2 «против».
При этом политика оставляет пространство для ИИ в отдельных аспектах редактуры.
Редакторам можно применять LLM, чтобы предлагать простые правки в их собственном тексте и внедрять некоторые из них после проверки человеком, если модель не добавляет ничего от себя, — говорится в обновлении. Нужно быть осторожным: LLM иногда выходят за пределы запроса и искажают смысл текста так, что он перестаёт соответствовать источникам.