ИИ-переводы галлюцинируют в статьях Википедии: редакторы вводят ограничения

ИИ-переводы галлюцинируют в статьях Википедии: редакторы вводят ограничения

Редакторы Википедии обнаружили, что массовое использование нейросетей для перевода статей на другие языки приводит к появлению в энциклопедии фактических ошибок и ложных ссылок. В сообществе введены ограничения для переводчиков, использующих ИИ-инструменты.

Проблема вскрылась при проверке статей, созданных при содействии некоммерческой организации Open Knowledge Association (OKA), которая выплачивает стипендии контрибьюторам и переводчикам. На своем сайте OKA заявляет, что использует большие языковые модели для автоматизации большей части работы.

При анализе переводов редакторы обнаружили множественные ошибки. Например, в черновике статьи о французской королевской семье Ла Бурдонне была указана ссылка на книгу с конкретным номером страницы, однако при проверке выяснилось, что эта страница вообще не содержит информации о данной семье.

«Некоторые статьи содержали подмену источников или добавление предложений без каких-либо пояснений, а в статью о выборах во французский сенат 1879 года были добавлены абзацы, основанные на материале, совершенно не связанном с темой», — рассказал редактор Википедии Ильяс Лебле, участвовавший в проверке.

Расследование показало, что OKA преимущественно нанимает контрактников из стран Глобального Юга за низкую оплату. Согласно опубликованным инструкциям, переводчикам предлагалось копировать текст статей в популярные нейросети (ChatGPT, Gemini, ранее — Grok) для генерации перевода, а затем вручную проверять его читаемость. При этом проверка фактической достоверности информации, судя по инструкциям, требовалась только в случае, если ИИ менял смысл.

В ответ на инцидент сообщество Википедии ввело специальные правила. Теперь переводчики OKA, получившие четыре предупреждения о добавлении непроверяемого контента в течение полугода, будут блокироваться без дополнительных уведомлений. Весь контент, добавленный заблокированным переводчиком, может быть превентивно удален.

Основатель OKA Джонатан Циммерман заявил, что организация ужесточает контроль: внедряется дополнительная проверка готовых черновиков с помощью второй независимой языковой модели для выявления расхождений с исходным текстом. Он также отметил, что ошибки действительно случаются, но процесс OKA включает человеческую проверку и требует от переводчиков сверки контента с цитируемыми источниками.

Эксперты отмечают, что использование ИИ для проверки результатов работы другого ИИ — метод, исторически склонный к ошибкам. Инцидент демонстрирует новые вызовы для поддержания достоверности крупнейшей онлайн-энциклопедии в эпоху генеративного искусственного интеллекта.

похожие материалы

Стрелочка
Стрелочка
RIGF 2026: в России построен комплексный цифровой суверенитет
RIGF 2026: в России построен комплексный цифровой суверенитет

Современные операторы связи сталкиваются с беспрецедентными вызовами: взрывном рост трафика, усложнением архитектуры сетей, участившиеся кибератаки и постоянно растущие ожидания абонентов от качества и непрерывности сервиса.

Анатомия ландшафта киберугроз: ИТ-сектор вытеснил финансы из тройки самых атакуемых отраслей в 2025 году
Анатомия ландшафта киберугроз: ИТ-сектор вытеснил финансы из тройки самых атакуемых отраслей в 2025 году

По данным глобального отчёта «Анатомия ландшафта киберугроз» от экспертов центра сервисов по кибербезопасности «Лаборатории Касперского», государственные учреждения и промышленность остаются самыми привлекательными целями для злоумышленников — в 2025 году на них пришлось больше всего инцидентов высокой критичности.