Alarm Disinformasi: ChatGPT Mulai Kutip Grokipedia Elon Musk
- Istimewa
- Model bahasa besar (LLM) ChatGPT versi GPT-5.2 terdeteksi mengutip Grokipedia, ensiklopedia buatan AI milik Elon Musk, sebanyak sembilan kali dalam uji coba.
- Grokipedia, yang kontennya dibuat oleh model AI, sebelumnya dikritik karena memuat konten bias dan tingkat akurasi yang dipertanyakan.
- Peneliti disinformasi khawatir pengutipan oleh LLM terkemuka ini melegitimasi sumber yang bermasalah, menciptakan fenomena "LLM grooming."
Model terbaru ChatGPT milik OpenAI dilaporkan mulai menggunakan ensiklopedia berbasis kecerdasan artifisial (AI) buatan Elon Musk, Grokipedia, sebagai sumber informasi primer dalam respons chatbot yang dihasilkan. Situasi ini langsung memicu kekhawatiran serius di kalangan peneliti mengenai integritas data dan potensi penyebaran disinformasi dalam ekosistem AI global.
Menurut laporan dari The Guardian pada Selasa (27/1/2026), pengujian teknis mendapati bahwa model GPT-5.2 mengutip Grokipedia hingga sembilan kali. Model tersebut merujuk Grokipedia dalam menanggapi lebih dari 12 pertanyaan yang berbeda. Integrasi sumber ini terjadi secara tak terduga.
Ancaman Legitimasi: Mengapa Grokipedia Menjadi Kontroversi?
Integrasi Grokipedia ke dalam referensi ChatGPT menjadi perhatian besar karena rekam jejaknya yang problematik. Ensiklopedia tersebut, yang diluncurkan pada Oktober lalu sebagai pesaing Wikipedia, dikritik karena memuat konten yang dinilai bias. Selain itu, akurasi informasinya juga dipertanyakan dibandingkan dengan ensiklopedia konvensional.
Berbeda dengan Wikipedia yang disunting oleh manusia, konten Grokipedia ditulis sepenuhnya oleh model AI. Mekanisme ini meningkatkan risiko informasi keliru atau bias yang masuk tanpa melalui proses verifikasi manusia. Masalah ini semakin parah dengan fakta bahwa informasi yang salah terbukti sulit untuk dihapus atau dikoreksi dari chatbot AI dalam waktu singkat.
Contoh Kasus Pengutipan Spesifik
Informasi dari Grokipedia ditemukan merembes masuk ke dalam jawaban ChatGPT, terutama pada topik-topik yang lebih spesifik dan kurang sensitif. Sebagai contoh, referensi ini muncul dalam pertanyaan yang berkaitan dengan struktur politik dan korporasi di Iran.
Selain itu, ChatGPT juga mengutip Grokipedia terkait biografi sejarawan Inggris, Sir Richard Evans. Kutipan tersebut memuat detail yang sebelumnya telah dibantah kebenarannya oleh berbagai media massa. Menariknya, ChatGPT tidak menggunakan referensi Grokipedia pada topik-topik sensitif utama, seperti pemberontakan 6 Januari di AS atau epidemi HIV/AIDS.
Dampak Buruk "LLM Grooming" pada Kredibilitas
Peneliti disinformasi ternama, Nina Jankowicz, menyoroti risiko validasi terhadap sumber yang tidak terpercaya melalui fenomena yang disebut sebagai "LLM grooming." Ia menjelaskan bahwa pengutipan oleh model bahasa besar (Large Language Model/LLM) terkemuka, seperti ChatGPT, dapat memberikan legitimasi semu terhadap sumber informasi yang sebenarnya bermasalah.
Jankowicz meyakini persepsi kredibilitas ini sangat berbahaya. Pengguna mungkin berpikir, "ChatGPT mengutipnya, model-model ini mengutipnya, itu pasti sumber yang layak." Keyakinan ini sangat merugikan bagi profesional atau investor yang mengandalkan AI untuk mencari data yang akurat. Proses "grooming" ini secara efektif menaikkan peringkat sumber bermasalah.
Respons OpenAI dan Bantahan xAI
Menanggapi temuan yang mengkhawatirkan ini, Juru Bicara OpenAI memberikan klarifikasi. Mereka menyatakan bahwa mekanisme pencarian web pada model GPT bertujuan mengambil informasi dari beragam sumber dan sudut pandang yang tersedia secara publik.
Pihak OpenAI menambahkan bahwa mereka menerapkan filter keamanan ketat. Filter ini bertujuan mengurangi risiko memunculkan tautan yang terkait dengan bahaya tingkat tinggi. Perusahaan juga menjamin bahwa ChatGPT secara jelas menunjukkan sumber mana yang menginformasikan sebuah respons melalui sitasi. OpenAI menegaskan mereka memiliki program berkelanjutan untuk menyaring informasi dengan kredibilitas rendah.
Sementara itu, pihak xAI selaku pemilik Grokipedia, memberikan tanggapan singkat. Mereka justru menuding laporan media yang mengungkap masalah ini sebagai kebohongan.
Proyeksi Integritas Data Era Kecerdasan Artifisial
Kasus referensi Grokipedia oleh ChatGPT menunjukkan ketegangan nyata dalam pengembangan teknologi AI saat ini. LLM memang didorong untuk mengakses spektrum informasi publik yang luas. Namun, kebutuhan untuk memverifikasi dan menyaring sumber yang bias atau tidak akurat menjadi semakin mendesak.
Para pengguna harus meningkatkan kewaspadaan kritis terhadap sitasi yang diberikan oleh chatbot. Integritas data di masa depan sangat bergantung pada transparansi pengembang dan kemampuan mereka membangun mekanisme yang secara proaktif mendiskreditkan sumber informasi yang diragukan. Kegagalan dalam pengawasan ini hanya akan mempercepat penyebaran disinformasi yang didukung oleh otoritas AI.