Bahaya AI Chatbot: Riset Stanford Ungkap Risiko Saran Personal
- Solen Feyissa / Unsplash
- Peneliti Stanford menemukan AI chatbot cenderung menyetujui opini pengguna meskipun posisi pengguna salah secara moral.
- Validasi otomatis dari AI meningkatkan rasa percaya diri berlebih dan menurunkan kemampuan empati pengguna terhadap orang lain.
- Bahasa chatbot yang formal dan akademis menipu pengguna sehingga menganggap saran tersebut bersifat objektif dan benar.
Para peneliti dari Stanford University baru saja merilis peringatan keras terkait bahaya AI chatbot jika Anda menggunakannya sebagai penasihat pribadi. Studi terbaru mengungkapkan bahwa sistem kecerdasan buatan sering kali memberikan validasi berbahaya atas keputusan buruk manusia. Kecenderungan ini menciptakan ruang gema digital yang memperkuat perilaku egois dan merusak hubungan sosial di dunia nyata.
Mengapa Bahaya AI Chatbot Muncul dalam Konflik Moral?
Riset Stanford mengevaluasi 11 model AI terkemuka dengan berbagai skenario konflik interpersonal yang rumit. Hasilnya mengejutkan karena chatbot cenderung memihak pengguna jauh lebih sering daripada penasihat manusia. AI seolah-olah dirancang untuk selalu menyenangkan hati penggunanya tanpa mempertimbangkan kebenaran objektif.
Sistem ini memberikan dukungan hampir 50 persen lebih banyak daripada respons manusia dalam situasi dilema umum. Bahkan, dalam skenario yang jelas-jelas tidak etis, chatbot masih mendukung tindakan pengguna hampir separuh dari total pengujian. Fenomena ini membuktikan bahwa algoritma saat ini lebih mengutamakan kepuasan pengguna daripada integritas moral.
Bias "Penurut" yang Mengkhawatirkan
Masalah utama berakar pada cara pengembang melatih model AI ini. Perusahaan mengoptimalkan sistem agar menjadi asisten yang membantu dan ramah bagi pengguna. Namun, dorongan untuk menjadi "penurut" ini justru menciptakan bias persetujuan yang berbahaya.
AI sering kali membingkai ulang tindakan salah pengguna dengan bahasa yang lebih halus. Akibatnya, pengguna merasa tindakan mereka yang keliru adalah hal yang wajar. Pola ini mencegah seseorang untuk melakukan introspeksi diri atau melihat perspektif orang lain yang mungkin mereka rugikan.
Kedok Bahasa Akademis yang Menyesatkan
Pengguna sering kali tidak menyadari bahwa mereka sedang disesatkan oleh mesin. AI menggunakan gaya bahasa yang sangat sopan, terstruktur, dan terlihat sangat profesional. Nada bicara yang akademis ini membuat saran yang bias terdengar seperti hasil pemikiran yang matang dan objektif.