Отчет: GPT-5.2 цитирует материалы из Грокипедии, повышая риск дезинформации

2026-01-26 115 комментарии
Согласно расследованию The Guardian, последняя модель ChatGPT (GPT-5.2) все чаще ссылается на Грокипедию (Grokipedia) Илона Маска. Эксперты предупреждают о рисках попадания непроверенной информации в выдачу нейросети и возникновении эффекта «мусор на входе — мусор на выходе».

Издание The Guardian опубликовало результаты тестирования, указывающие на то, что последняя модель ChatGPT (GPT-5.2) начала активно использовать онлайн-энциклопедию Грокипедия (Grokipedia), принадлежащую Илону Маску, в качестве источника информации. Использование сгенерированного искусственным интеллектом контента в качестве базы знаний для других ИИ-систем может привести к реализации сценария «мусор на входе — мусор на выходе» (garbage in, garbage out), способствуя распространению непроверенных данных.

Использование спорного источника

В ходе расследования журналисты выяснили, что ChatGPT ссылается на платформу xAI при ответах на вопросы по различным темам, включая политическое устройство Ирана и биографические детали исторических личностей. Данная тенденция вызывает опасения относительно достоверности предоставляемой информации. Материалы Грокипедии не проходят строгие процессы верификации, характерные для источников, поддерживаемых профессиональными редакциями или крупными сообществами.

Особенности Грокипедии

Грокипедия была создана Илоном Маском как конкурент Википедии. Основатель xAI обвиняет Википедию в левом уклоне и заявляет, что его проект нацелен на достижение истины и нейтральности. Однако критики указывают, что платформа зачастую представляет контент с правой политической точки зрения или освещает спорные темы однобоко.

В отличие от Википедии, статьи которой курируются людьми, тексты в Грокипедии генерируются преимущественно собственной языковой моделью компании — Grok. Пользовательское редактирование в этой системе отсутствует; контроль качества, согласно заявлениям, осуществляется сотрудниками xAI.

Техническая петля обратной связи

Использование машинных текстов Грокипедии другими языковыми моделями, такими как GPT-5.2, создает условия для возникновения технической петли обратной связи, в которой искусственный интеллект обучается на материалах, созданных другим ИИ.

Такая ситуация повышает риск снижения качества выдачи. Если нейросети начнут массово использовать нефильтрованный материал от других моделей как базу для собственных ответов, ошибки и специфические предвзятости могут тиражироваться без должной проверки. Расследование The Guardian показало, что ChatGPT, цитируя Грокипедию, повторяет утверждения, выходящие за рамки установленных фактов или ранее опровергнутые. Взаимное цитирование ИИ-моделей придает дезинформации вид достоверности, что затрудняет для пользователей выявление ложных сведений.

Позиция OpenAI

Компания OpenAI отреагировала на отчет, подчеркнув, что функция веб-поиска модели стремится отражать широкий спектр общедоступных источников и точек зрения. Представитель компании заявил, что для снижения риска демонстрации ссылок на контент с высоким потенциалом вреда применяются фильтры безопасности. Кроме того, ChatGPT предоставляет ответы с указанием цитат и источников для обеспечения прозрачности. Компания также сообщила о действующих программах, направленных на фильтрацию источников с низкой достоверностью.

© .
Комментарии и отзывы

Нашли ошибку?

Новое на сайте