ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии, созданной другим ИИ

5595
5
ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии, созданной другим ИИ

В ходе тестирования новой модели GPT‑5.2, проведённого журналистами The Guardian, выявилась тревожная тенденция. Чат‑бот OpenAI при ответе на сложные и узкоспециализированные запросы всё чаще опирается на данные из Grokipedia.

Grokipedia — энциклопедия, созданная искусственным интеллектом компании xAI Илона Маска. Этот источник уже неоднократно подвергался критике за потенциальную предвзятость и недостоверность информации.

Тесты показали, что ChatGPT активно использует Grokipedia при освещении чувствительных тем. В частности, это касается вопросов, связанных с политическими структурами Ирана, а также биографических справок об историках, изучавших тему Холокоста. В ряде случаев чат‑бот воспроизводил сведения, которые ранее были официально опровергнуты экспертами.

Главная особенность Grokipedia заключается в полном отсутствии человеческого участия в создании и редактировании контента. Вся информация генерируется и корректируется исключительно нейросетью Grok. Это вызывает серьёзную обеспокоенность у исследователей проблем дезинформации. По их мнению, подобные источники особенно уязвимы для манипуляций и могут стать каналами распространения непроверенных данных.

Представитель OpenAI, комментируя ситуацию для The Guardian, пояснил, что веб‑поиск модели предполагает работу с широким спектром общедоступных источников. Компания утверждает, что применяет специальные фильтры безопасности для минимизации рисков. Однако эксперты указывают на фундаментальную проблему: однажды попав в языковую модель, ложная информация способна сохраняться в её ответах даже после того, как первоисточник будет удалён из сети. Это создаёт долгосрочные угрозы для достоверности сведений, которые ИИ‑системы предоставляют миллионам пользователей.

Ситуация с интеграцией Grokipedia в ответы ChatGPT обнажает серьёзные вопросы о принципах отбора источников для обучения нейросетей. Особенно остро эта проблема встаёт при работе с чувствительными историческими и политическими темами, где цена ошибки особенно высока. Возникает необходимость в разработке более строгих механизмов проверки контента и чёткой системы ответственности разработчиков за распространение потенциально недостоверной информации через ИИ‑платформы.

На фоне растущего доверия пользователей к чат‑ботам как к надёжным источникам знаний, обнаруженные факты требуют пересмотра подходов к формированию обучающих массивов данных и внедрению систем контроля качества генерируемого контента.

Другие публикации по теме
Голливуд очень испугался нейросеть Seedance 2.0
Голливуд очень испугался нейросеть Seedance 2.0
Голливудские организации ополчились на новую модель искусственного интеллекта Seedance 2.0 от китайской ByteDance, обвинив компанию в массовом нарушении авторских прав.
Вчера в 11:45
900
12
Форум
Cyberpunk 2077 получил ИИ-трейлер киноадаптации — вышло здорово!
Cyberpunk 2077 получил ИИ-трейлер киноадаптации — вышло здорово!
Энтузиасты продолжают фантазировать на тему возможной экранизации Cyberpunk 2077. Автор YouTube-канала RealDrip представил подборку голливудских звезд, которые, по его мнению, идеально вписались бы в образы ключевых персонажей игры.
14 февраля в 12:49
671
4
Форум
Звуки ИИ: лучшие разработчики Spotify «не написали ни одной строчки кода с декабря 2025 года»
Звуки ИИ: лучшие разработчики Spotify «не написали ни одной строчки кода с декабря 2025 года»
Spotify не чурается ИИ, и слушатели всем довольны — активная аудитория сервиса превысила 750 миллионов человек в месяц. Во время финансового отчета за квартал прозвучало сенсационное признание.
14 февраля в 12:35
664
7
Форум