Alarm Disinformasi: ChatGPT Mulai Kutip Grokipedia Elon Musk

Alarm Disinformasi: ChatGPT Mulai Kutip Grokipedia Elon Musk
Sumber :
  • Istimewa

Dampak Buruk "LLM Grooming" pada Kredibilitas

Waspada! 91.000 Serangan AI Targetkan Proxy LLM Rentan

Peneliti disinformasi ternama, Nina Jankowicz, menyoroti risiko validasi terhadap sumber yang tidak terpercaya melalui fenomena yang disebut sebagai "LLM grooming." Ia menjelaskan bahwa pengutipan oleh model bahasa besar (Large Language Model/LLM) terkemuka, seperti ChatGPT, dapat memberikan legitimasi semu terhadap sumber informasi yang sebenarnya bermasalah.

Jankowicz meyakini persepsi kredibilitas ini sangat berbahaya. Pengguna mungkin berpikir, "ChatGPT mengutipnya, model-model ini mengutipnya, itu pasti sumber yang layak." Keyakinan ini sangat merugikan bagi profesional atau investor yang mengandalkan AI untuk mencari data yang akurat. Proses "grooming" ini secara efektif menaikkan peringkat sumber bermasalah.

Gawat! Senator AS Desak Apple & Google Blokir Grok AI dan X

Respons OpenAI dan Bantahan xAI

Menanggapi temuan yang mengkhawatirkan ini, Juru Bicara OpenAI memberikan klarifikasi. Mereka menyatakan bahwa mekanisme pencarian web pada model GPT bertujuan mengambil informasi dari beragam sumber dan sudut pandang yang tersedia secara publik.

Elon Musk Khawatir Konsentrasi Kekuatan Google di Siri AI

Pihak OpenAI menambahkan bahwa mereka menerapkan filter keamanan ketat. Filter ini bertujuan mengurangi risiko memunculkan tautan yang terkait dengan bahaya tingkat tinggi. Perusahaan juga menjamin bahwa ChatGPT secara jelas menunjukkan sumber mana yang menginformasikan sebuah respons melalui sitasi. OpenAI menegaskan mereka memiliki program berkelanjutan untuk menyaring informasi dengan kredibilitas rendah.

Sementara itu, pihak xAI selaku pemilik Grokipedia, memberikan tanggapan singkat. Mereka justru menuding laporan media yang mengungkap masalah ini sebagai kebohongan.

Proyeksi Integritas Data Era Kecerdasan Artifisial

Kasus referensi Grokipedia oleh ChatGPT menunjukkan ketegangan nyata dalam pengembangan teknologi AI saat ini. LLM memang didorong untuk mengakses spektrum informasi publik yang luas. Namun, kebutuhan untuk memverifikasi dan menyaring sumber yang bias atau tidak akurat menjadi semakin mendesak.

Para pengguna harus meningkatkan kewaspadaan kritis terhadap sitasi yang diberikan oleh chatbot. Integritas data di masa depan sangat bergantung pada transparansi pengembang dan kemampuan mereka membangun mekanisme yang secara proaktif mendiskreditkan sumber informasi yang diragukan. Kegagalan dalam pengawasan ini hanya akan mempercepat penyebaran disinformasi yang didukung oleh otoritas AI.