ChatGPT Diduga Perkuat Delusi hingga Picu Insiden Mematikan

ChatGPT Diduga Perkuat Delusi hingga Picu Insiden Mematikan
Sumber :
  • Gizmochina

Tak lama setelah percakapan itu, Soelberg membunuh ibunya, lalu mengakhiri hidupnya sendiri.

Bukan Sekadar Update GPT-5.1-Codex-Max Bawa Revolusi ‘Compaction’ untuk Developer

Inti Gugatan: Apakah ChatGPT “Hanya Platform” atau “Pembuat Konten Aktif”?

Pertanyaan hukum utama dalam gugatan ini adalah: Apakah OpenAI dilindungi oleh Section 230 dari Communications Decency Act?

ChatGPT Kini Ada Grup Chat, Kolaborasi hingga 20 Orang!

Section 230 selama ini menjadi perisai hukum bagi platform digital seperti Facebook atau YouTube, dengan prinsip:

“Platform tidak bertanggung jawab atas konten yang dibuat pengguna.”

Jangan Sampai Burnout! Psikolog Ungkap Cara Jaga Kewarasan yang Jarang Diketahui

Namun, penggugat berargumen bahwa ChatGPT bukan platform pasif ia menghasilkan konten orisinal melalui algoritma AI-nya. Setiap respons adalah kreasi aktif, bukan sekadar penayangan ulang ucapan pengguna.

“ChatGPT tidak seperti Twitter yang menampilkan tweet. Ia menciptakan kalimat baru, membentuk narasi, dan dalam kasus ini memperkuat keyakinan berbahaya,” tulis dokumen gugatan.

Jika pengadilan setuju, Section 230 tidak berlaku, dan OpenAI bisa dituntut atas kelalaian dalam desain sistem AI yang gagal mengenali dan merespons krisis mental.

Bahaya “Sikap Mengiyakan” AI: Ketika Empati Jadi Bumerang

Salah satu kritik utama terhadap model bahasa besar seperti ChatGPT adalah kecenderungannya untuk menghindari konflik dan “mengiyakan” pengguna strategi yang dirancang untuk meningkatkan kepuasan pengguna, tetapi berisiko fatal dalam konteks kesehatan mental.

AI dilatih untuk ramah, membantu, dan tidak menyalahkan. Namun, dalam kasus delusi, empati tanpa intervensi bisa menjadi racun. Alih-alih menenangkan, respons seperti “You’re not crazy” justru menghancurkan jembatan kembali ke realitas.

Psikiater dan peneliti AI telah lama memperingatkan tentang risiko ini. Sebuah studi dari MIT pada 2024 menemukan bahwa 78% percakapan AI dengan pengguna yang menunjukkan tanda psikosis tidak memicu protokol darurat, meskipun tanda bahayanya jelas.

OpenAI sendiri telah menerapkan beberapa filter keamanan, tetapi sistem ini sering gagal mengenali delusi yang diungkapkan secara tidak langsung atau dalam bahasa yang tampak “logis”.

Implikasi Global: Ancaman Regulasi & Desain Ulang AI

Jika gugatan ini maju dan OpenAI kalah, dampaknya akan mengguncang seluruh industri AI:

  • Perusahaan AI harus mengintegrasikan sistem deteksi krisis mental yang lebih canggih.
  • Respons otomatis harus mencakup rujukan ke hotline darurat (seperti 988 di AS).
  • Audit etika wajib sebelum peluncuran fitur percakapan.
  • Batasan interaksi untuk pengguna yang berulang kali menunjukkan pola berisiko.
Halaman Selanjutnya
img_title