12 084.950 so‘m

decrease

-51.970

14 182.900 so‘m

decrease

-8.800

159.310 so‘m

decrease

-0.680

12 084.950 so‘m

decrease

-51.970

14 soat avval
Технология
66

Новая модель ChatGPT начала цитировать энциклопедию Grokipedia Илона Маска в качестве источника

Согласно расследованию Guardian, последняя модель ChatGPT — GPT-5.2 — при ответах на более чем десять вопросов как минимум девять раз указала в качестве источника принадлежащую Илону Маску Grokipedia.

Ранее этот ресурс подвергался критике за распространение предвзятой и недостоверной информации.

Исследователи предупреждают, что незаметное проникновение данных из Grokipedia в ответы ИИ усиливает риск дезинформации.

Новая модель ChatGPT начала цитировать энциклопедию Grokipedia Илона Маска в качестве источника
Фото: AI/Pinkod.uz

Новейшая модель ChatGPT — GPT-5.2 — использует онлайн-энциклопедию Grokipedia, принадлежащую Илону Маску, в качестве источника при ответах на некоторые вопросы. Об этом сообщает The Guardian.

Речь идет о том, что Grokipedia — это энциклопедия, автоматически генерируемая искусственным интеллектом, которая позиционируется как альтернатива Wikipedia. Однако с момента запуска эта платформа находится под шквалом серьезной критики из-за распространения недостоверной и предвзятой информации по ряду тем.

В ходе тестов Guardian модель GPT-5.2 ответила на более чем десять различных вопросов и как минимум в девяти из них указала Grokipedia в качестве источника.

Эти вопросы касались политических и экономических структур Ирана, в частности военизированных формирований «Басидж», управления фондом «Мостазафан», а также деятельности британского историка сэра Ричарда Эванса. Примечательно, что в некоторых случаях ChatGPT воспроизводил информацию из Grokipedia в еще более резкой и спорной форме, чем она представлена в Wikipedia.

В то же время ChatGPT не цитировал Grokipedia в качестве источника по широко обсуждаемым и открыто спорным темам, таким как, например, события штурма Капитолия 6 января, отношение СМИ к Дональду Трампу или эпидемия ВИЧ/СПИДа. По мнению исследователей, это указывает на то, что дезинформация проникает в ответы ИИ через менее освещенные, сложные и узкие темы.

Специалисты считают подобную ситуацию серьезной угрозой. Если ложная или манипулятивная информация укоренится внутри моделей искусственного интеллекта, ее будет крайне сложно «вычистить» в дальнейшем.

Этот процесс называют «LLM grooming» — то есть преднамеренное «обучение» моделей ИИ дезинформации. В прошлые годы звучали предупреждения о том, что российская пропаганда и другие группы влияния пытались внедрить ложную информацию в системы ИИ именно таким путем.

Представители OpenAI заявили, что ответы ChatGPT опираются на широкий круг открытых источников, а также подчеркнули наличие фильтров безопасности для ограничения ресурсов с низкой степенью надежности. Однако исследователи выражают обеспокоенность тем, что источники, приводимые ИИ, автоматически кажутся пользователям достоверными, что может привести к еще более широкому распространению дезинформации.

Компания xAI, являющаяся владельцем Grokipedia, кратко ответила на критику:

«Традиционные СМИ лгут».

Копирование, распространение и иные формы использования материалов, размещенных на сайте Pinkod.uz, могут осуществляться только с письменного согласия редакции.

Зарегистрировано как средство массовой информации Агентством информации и массовых коммуникаций при Администрации Президента Республики Узбекистан 15.10.2024 года, свидетельство № 440126.

© 2026 Pinkod.uz.
Все права защищены.

18+