Новая модель ChatGPT начала цитировать энциклопедию Grokipedia Илона Маска в качестве источника
Согласно расследованию Guardian, последняя модель ChatGPT — GPT-5.2 — при ответах на более чем десять вопросов как минимум девять раз указала в качестве источника принадлежащую Илону Маску Grokipedia.
Ранее этот ресурс подвергался критике за распространение предвзятой и недостоверной информации.
Исследователи предупреждают, что незаметное проникновение данных из Grokipedia в ответы ИИ усиливает риск дезинформации.

Новейшая модель ChatGPT — GPT-5.2 — использует онлайн-энциклопедию Grokipedia, принадлежащую Илону Маску, в качестве источника при ответах на некоторые вопросы. Об этом сообщает The Guardian.
Речь идет о том, что Grokipedia — это энциклопедия, автоматически генерируемая искусственным интеллектом, которая позиционируется как альтернатива Wikipedia. Однако с момента запуска эта платформа находится под шквалом серьезной критики из-за распространения недостоверной и предвзятой информации по ряду тем.
В ходе тестов Guardian модель GPT-5.2 ответила на более чем десять различных вопросов и как минимум в девяти из них указала Grokipedia в качестве источника.
Эти вопросы касались политических и экономических структур Ирана, в частности военизированных формирований «Басидж», управления фондом «Мостазафан», а также деятельности британского историка сэра Ричарда Эванса. Примечательно, что в некоторых случаях ChatGPT воспроизводил информацию из Grokipedia в еще более резкой и спорной форме, чем она представлена в Wikipedia.
В то же время ChatGPT не цитировал Grokipedia в качестве источника по широко обсуждаемым и открыто спорным темам, таким как, например, события штурма Капитолия 6 января, отношение СМИ к Дональду Трампу или эпидемия ВИЧ/СПИДа. По мнению исследователей, это указывает на то, что дезинформация проникает в ответы ИИ через менее освещенные, сложные и узкие темы.
Специалисты считают подобную ситуацию серьезной угрозой. Если ложная или манипулятивная информация укоренится внутри моделей искусственного интеллекта, ее будет крайне сложно «вычистить» в дальнейшем.
Этот процесс называют «LLM grooming» — то есть преднамеренное «обучение» моделей ИИ дезинформации. В прошлые годы звучали предупреждения о том, что российская пропаганда и другие группы влияния пытались внедрить ложную информацию в системы ИИ именно таким путем.
Представители OpenAI заявили, что ответы ChatGPT опираются на широкий круг открытых источников, а также подчеркнули наличие фильтров безопасности для ограничения ресурсов с низкой степенью надежности. Однако исследователи выражают обеспокоенность тем, что источники, приводимые ИИ, автоматически кажутся пользователям достоверными, что может привести к еще более широкому распространению дезинформации.
Компания xAI, являющаяся владельцем Grokipedia, кратко ответила на критику:
«Традиционные СМИ лгут».









