Regulasi AI Tak Perlu Buru-Buru, Kolaborasi Diperkuat Dahulu
- Sarie/GadgetViva
Gadget – Dalam era perkembangan kecerdasan buatan (AI) yang sangat pesat, Indonesia tengah bersiap mengatur keberadaan teknologi ini. Namun, pertanyaannya: apakah kita benar-benar siap? Menurut Sergey Lozhkin, pakar keamanan siber dari Kaspersky, langkah regulasi AI yang tergesa-gesa justru berpotensi menimbulkan bahaya baru, apalagi jika tidak disertai dengan riset mendalam dan kolaborasi luas antar sektor.
“Kesalahan terbesar yang biasa terjadi adalah keinginan pemerintah untuk segera mengatur tanpa benar-benar memahami apa yang sedang diatur,” tegas Lozhkin dalam wawancara di perhelatan Cyber Security Week 2025 di Vietnam, kemarin.
Menurut Lozhkin, AI adalah alat yang bisa digunakan untuk kebaikan maupun kejahatan—tergantung pada siapa yang mengoperasikannya. Oleh karena itu, regulasi harus mempertimbangkan potensi bahaya seperti:
- AI sebagai alat politik (memanipulasi jawaban untuk kepentingan tertentu).
- Potensi AI supercanggih yang membahayakan kemanusiaan.
- Sistem bantuan sosial berbasis AI yang bisa bias atau dimanipulasi.
“AI bisa jadi alat tekanan politik jika tak diatur dengan cermat. Ini harus dicegah sejak dini,” ujarnya.
Kunci: Kolaborasi dan Riset
Langkah awal yang harus dilakukan pemerintah, lanjut Lozhkin, adalah melibatkan seluruh pemangku kepentingan: pengembang AI, akademisi, hingga vendor keamanan seperti Kaspersky.
“Bukan cuma perusahaan swasta, tapi juga para ilmuwan dan peneliti yang betul-betul paham teknologi ini. Pemerintah tidak boleh jalan sendiri.”
Kerja sama seperti ini dinilai penting karena keamanan siber bukan hanya urusan teknis, melainkan juga sosial dan politik. AI bisa mempengaruhi kehidupan masyarakat, termasuk dalam pendistribusian bantuan sosial yang kini mulai dilirik pemerintah untuk dijalankan melalui facial recognition.
Waspada Sistem AI untuk Sosial Bantuan
Pemerintah Indonesia dikabarkan tengah mempertimbangkan penggunaan AI—termasuk teknologi pengenalan wajah—untuk menyalurkan bantuan sosial. Namun, Lozhkin menilai, langkah ini sangat berisiko jika dilakukan tanpa sistem keamanan yang kuat.
“Bayangkan jika sistemnya diretas. Maka distribusi bantuan bisa dikendalikan pihak tak bertanggung jawab atau dimanipulasi deepfake,” ujar Lozhkin.
Apakah Infrastruktur Kita Siap?
Lozhkin mengakui belum memiliki cukup informasi mengenai kesiapan infrastruktur pemerintah Indonesia. Namun, ia menyebut banyak perusahaan di Indonesia sudah cukup baik dalam melindungi data mereka dan bekerja sama dengan vendor global seperti Kaspersky.
“Kalau dari sisi perusahaan swasta, saya melihat banyak yang sudah siap. Tapi untuk pemerintah, saya belum bisa memastikan.”
Perlunya Lembaga Independen Global
Lebih jauh, Lozhkin mendukung ide pembentukan badan independen global untuk mengawasi perkembangan dan ancaman AI. Konsepnya mirip seperti UNESCO atau Interpol—dengan peran sebagai pengawas dan regulator etis lintas negara.
“Ini sangat diperlukan agar tidak terjadi monopoli atau penyalahgunaan AI oleh negara atau perusahaan besar.”
Edukasi Masyarakat Jadi Tembok Pertahanan
Ancaman AI tidak hanya datang dari elite penguasa atau perusahaan raksasa. Pengguna biasa pun bisa menjadi korban—atau pelaku. Solusinya? Edukasi. Pengguna harus paham risiko AI seperti deepfake, manipulasi suara, atau penipuan digital.
Hingga saat ini, belum ada negara yang benar-benar menerapkan regulasi AI secara menyeluruh. Eropa disebut paling maju dalam hal persiapan, namun belum ada hukum final yang diteken. Indonesia seharusnya belajar dari Eropa: menyusun regulasi dengan melibatkan semua pemangku kepentingan, dan tidak terburu-buru demi pencitraan semata.
“Regulasi AI penting, tapi jangan sampai salah langkah. Jangan jadikan AI alat politik,” pungkas Lozhkin.
Dapatkan informasi terbaru seputar Gadget, Anime, Game, Tech dan Berita lainnya setiap hari melalui social media Gadget VIVA. Ikuti kami di : | |
---|---|
@gadgetvivacoid | |
Gadget VIVA.co.id | |
X (Twitter) | @gadgetvivacoid |
Whatsapp Channel | Gadget VIVA |
Google News | Gadget |