800 Tokoh Dunia Minta Hentikan Riset AI Super Pintar, Dianggap Ancaman bagi Umat Manusia
- Canva
Gadget – Laju perkembangan kecerdasan buatan (AI) kini menimbulkan kekhawatiran serius di seluruh dunia. Lebih dari 800 tokoh ternama lintas bidang—mulai dari ilmuwan peraih Nobel, mantan pejabat militer, seniman, hingga anggota keluarga kerajaan Inggris—menandatangani seruan terbuka untuk menghentikan sementara riset AI tingkat lanjut yang dinilai terlalu berbahaya.
Seruan ini menyerukan moratorium global terhadap riset AI superintelijen, yaitu bentuk kecerdasan buatan yang berpotensi melampaui kemampuan manusia. Para tokoh menilai, pengembangan AI saat ini berlangsung jauh lebih cepat dibanding kemampuan masyarakat memahami risikonya.
Tokoh-tokoh yang menandatangani seruan ini di antaranya Geoffrey Hinton, pionir AI yang juga peraih Nobel, mantan Kepala Staf Gabungan AS Mike Mullen, musisi Will.i.am, mantan penasihat Gedung Putih Steve Bannon, serta Pangeran Harry dan Meghan Markle.
Mereka menilai, dunia belum siap menghadapi dampak sosial, ekonomi, dan keamanan dari kecerdasan buatan yang terus berevolusi tanpa batas.
AI Superintelijen Dianggap Bisa Melampaui Manusia
Menurut sejumlah ilmuwan, sistem AI yang dikembangkan saat ini sudah mendekati tahap Artificial General Intelligence (AGI) — kecerdasan buatan yang mampu berpikir dan bertindak layaknya manusia. Namun, tahap berikutnya, yakni superintelijen, dianggap jauh lebih berbahaya karena dapat melampaui kecerdasan manusia paling ahli sekalipun.
Kekhawatiran itu muncul di tengah perlombaan raksasa teknologi seperti OpenAI, Google, dan Meta yang terus mengembangkan model AI baru untuk berbagai sektor, mulai dari ekonomi, pendidikan, hingga kebudayaan.
Meski memberikan manfaat besar, percepatan riset ini juga menimbulkan risiko yang belum sepenuhnya dipahami, termasuk kemungkinan AI mengambil keputusan tanpa kendali manusia atau menciptakan sistem yang tak lagi bisa dihentikan.
Seruan dari Future of Life Institute
Pernyataan terbuka ini diterbitkan oleh Future of Life Institute (FLI), lembaga nirlaba yang fokus pada mitigasi risiko global seperti senjata nuklir, bioteknologi, dan kecerdasan buatan. Lembaga ini sebelumnya pernah mendapat dukungan dari Elon Musk dan Vitalik Buterin, pendiri blockchain Ethereum.
Direktur Eksekutif FLI, Anthony Aguirre, menegaskan bahwa kecepatan perkembangan AI saat ini jauh melampaui kemampuan publik untuk memahami implikasinya. Ia menyoroti bahwa arah riset lebih banyak ditentukan oleh perusahaan dan sistem ekonomi, bukan oleh konsensus masyarakat.
“Perkembangan ini ditentukan oleh pendiri perusahaan AI tanpa mempertimbangkan apakah masyarakat benar-benar menginginkannya,” ujar Aguirre dalam pernyataannya.
Ia menilai dunia masih memiliki kesempatan untuk mengatur arah pengembangan AI secara lebih bertanggung jawab. Karena itu, FLI mendorong adanya diskusi internasional antara Amerika Serikat, Tiongkok, dan negara-negara lain untuk menyepakati batas aman dalam pengembangan kecerdasan buatan tingkat lanjut.
Seruan untuk Kesepakatan Global
Anthony Aguirre menambahkan, masyarakat tidak menginginkan “perlombaan” yang dapat menjerumuskan dunia pada risiko yang belum diketahui. Ia menilai perlu ada perjanjian internasional mengenai pengembangan AI canggih, sebagaimana pernah dilakukan terhadap teknologi berisiko tinggi seperti nuklir.
“Sudah saatnya dunia memikirkan perjanjian internasional untuk AI, sebelum teknologinya terlalu kuat untuk dikendalikan,” ujarnya.
Para penandatangan berharap, langkah ini bisa mendorong komitmen global dalam memastikan AI dikembangkan secara etis dan aman, bukan sekadar mengejar keuntungan ekonomi.
Bahaya Nyata di Balik Kemajuan Teknologi
Meskipun banyak pihak menilai AI membawa manfaat besar dalam efisiensi kerja, kesehatan, hingga industri kreatif, sebagian ilmuwan memperingatkan adanya risiko sosial dan eksistensial yang belum tertangani.
Beberapa ancaman yang dikhawatirkan antara lain:
- Hilangnya jutaan pekerjaan manusia akibat otomatisasi cerdas. 
- Manipulasi informasi dan opini publik melalui deepfake dan konten buatan AI. 
- Risiko keamanan global, termasuk potensi penggunaan AI dalam perang siber atau sistem senjata otonom. 
- Kehilangan kendali manusia terhadap sistem superintelijen yang bisa membuat keputusan tanpa campur tangan manusia. 
Bila tidak diatur dengan baik, perkembangan superintelijen bisa menjadikan manusia bergantung pada sistem yang bahkan tidak lagi bisa mereka pahami.
Menuju Etika Baru dalam Riset AI
Seruan penghentian sementara riset AI bukanlah upaya untuk menghentikan inovasi, melainkan permintaan jeda untuk refleksi global. Dunia diminta memikirkan arah perkembangan teknologi yang tetap menghormati nilai-nilai kemanusiaan dan keselamatan.
Dengan dukungan luas dari berbagai kalangan, mulai dari ilmuwan, pemimpin militer, hingga tokoh budaya, seruan ini menjadi peringatan penting bagi pemerintah dan industri teknologi untuk menyeimbangkan ambisi dengan tanggung jawab moral.
Jika disepakati, langkah ini bisa menjadi awal pembentukan regulasi global AI — memastikan kecerdasan buatan tetap menjadi alat bantu manusia, bukan ancaman bagi keberlangsungan umat manusia itu sendiri.
| Dapatkan informasi terbaru seputar Gadget, Anime, Game, Tech dan Berita lainnya setiap hari melalui social media Gadget VIVA. Ikuti kami di : | |
|---|---|
| @gadgetvivacoid | |
| Gadget VIVA.co.id | |
| X (Twitter) | @gadgetvivacoid | 
| Whatsapp Channel | Gadget VIVA | 
| Google News | Gadget | 
 
	         
             
           
              
     
              
     
              
     
              
     
              
     
              
     
     
     
     
     
     
                   
                   
                   
                   
                   
     
     
     
    