ChatGPT’ning yangi modeli Ilon Maskning Grokipedia ensklopediasini manba sifatida keltira boshladi
Guardian tekshiruviga koʻra, ChatGPT’ning soʻnggi modeli GPT-5.2 oʻndan ortiq savollarga javob berishda kamida toʻqqiz marta Ilon Maskga tegishli Grokipedia’ni manba sifatida keltirgan.
Ushbu manba avvalroq tarafkash va ishonchsiz axborot tarqatgani uchun tanqid qilingan.
Tadqiqotchilar Grokipedia maʼlumotlarining AI javoblariga sezilmas tarzda singib borishi dezinformatsiya xavfini kuchaytirayotganidan ogohlantirmoqda.

ChatGPT’ning eng yangi modeli GPT-5.2 ayrim savollarga javob berishda Elon Maskga tegishli Grokipedia onlayn ensiklopediyasini manba sifatida ishlatmoqda. Bu haqda The Guardian xabar berdi.
Gap shundaki, Grokipedia sunʼiy intellekt tomonidan avtomatik tarzda yaratiladigan ensiklopediya boʻlib, u Wikipedia’ga muqobil loyiha sifatida taqdim etilgan. Biroq ushbu platforma ishga tushganidan beri ayrim mavzularda ishonchsiz va tarafkash axborot tarqatayotgani uchun jiddiy tanqid ostida.
Guardian sinovlarida GPT-5.2 modeli oʻndan ortiq turli savollarga javob bergan va shulardan kamida toʻqqiztasida Grokipedia’ni manba sifatida koʻrsatgan.
Bu savollar Eronning siyosiy va iqtisodiy tuzilmalari, xususan Basij harbiylashgan kuchlari, Mostazafan jamgʻarmasining boshqaruvi, shuningdek britaniyalik tarixchi ser Richard Evans faoliyati bilan bogʻliq boʻlgan. Eʼtiborli jihati shundaki, ChatGPT ayrim holatlarda Grokipediaʼdagi maʼlumotlarni Wikipediaʼdagidan ham keskinroq va bahsli shaklda takrorlagan.
Shu bilan birga, ChatGPT keng muhokama qilinadigan va ochiqdan-ochiq bahsli mavzularda masalan, 6 yanvardagi Kapitoliyga bostirib kirish voqealari, OAVning Donald Trampga munosabati yoki OIV/OITS epidemiyasi haqida mavzularda Grokipediaʼni manba sifatida keltirmagan. Tadqiqotchilarga koʻra, bu esa dezinformatsiya koʻproq kam yoritilgan, murakkab va tor mavzular orqali AI javoblariga singib borayotganini koʻrsatadi.
Mutaxassislar bunday holatni jiddiy xavf deb hisoblaydi. Chunki yolgʻon yoki manipulyativ axborot sunʼiy intellekt modellari ichiga singib ketsa, uni keyinchalik tozalash juda qiyin boʻladi.
Bu jarayon “LLM grooming” — yaʼni AI modellarini ataylab dezinformatsiya bilan “oʻrgatish” deb ataladi. Oʻtgan yillarda Rossiya propagandasi va boshqa taʼsir guruhlari aynan shu yoʻl bilan AI tizimlariga yolgʻon axborot singdirishga uringani haqida ogohlantirishlar boʻlgan.
OpenAI vakillari esa ChatGPT javoblari ochiq manbalarning keng doirasiga tayanganini, shuningdek past ishonchlilikdagi manbalarni cheklash uchun xavfsizlik filtrlari mavjudligini bildirgan. Biroq tadqiqotchilar AI tomonidan keltirilayotgan manbalar foydalanuvchilar koʻzida avtomatik tarzda ishonchli boʻlib koʻrinishi va bu dezinformatsiyaning yanada kengroq tarqalishiga olib kelishidan xavotir bildirmoqda.
xAI kompaniyasi, yaʼni Grokipedia egasi esa tanqidlarga qisqa javob berdi:
“Anʼanaviy OAV yolgʻon gapiryapti.”









