Bahaya Tersembunyi: Kode Buatan AI Sisipkan Malware & Data Bocor
- Istimewa
Selain ancaman injeksi kode jahat, alat coding AI juga menjadi jalur utama kebocoran data. Alat-alat ini memerlukan interaksi data yang masif dari pengguna.
Pada tahun 2024, perusahaan teknologi tinggi rata-rata mengunduh sekitar 53GB data dan mengunggah 14GB data per perusahaan ke aplikasi asisten kode. Besarnya volume data yang diunggah menciptakan masalah serius. Developer sering kali mengunggah kode sumber rahasia (proprietary code) ke alat pihak ketiga, meningkatkan risiko paparan data tanpa perlindungan memadai.
Risiko kebocoran data ini bukan sekadar spekulasi. Peneliti keamanan telah berhasil mendemonstrasikan eksfiltrasi data dari aplikasi percakapan berkemampuan coding. Tingkat keberhasilan eksfiltrasi mencapai 9,9%. Angka ini membuktikan bahwa celah keamanan pada asisten coding cukup signifikan untuk dimanfaatkan aktor jahat guna mencuri informasi sensitif perusahaan.
Strategi Mitigasi dan Verifikasi Kode Masa Depan
Efisiensi yang ditawarkan AI tidak boleh mengorbankan keamanan siber perusahaan. Tim keamanan IT harus mengambil tindakan proaktif dalam menghadapi risiko dari kode buatan AI.
Palo Alto Networks menyarankan tim IT menerapkan pemeriksaan ketat (vetting) terhadap semua aplikasi GenAI yang digunakan di lingkungan kerja. Selain itu, perusahaan wajib menerapkan penyaringan konten komprehensif. Penyaringan ini harus dilakukan di titik akses mana pun, memastikan data rahasia tidak bocor ke alat pihak ketiga yang tidak aman.
Memverifikasi setiap baris kode, bahkan yang dihasilkan oleh AI, menjadi praktik keamanan wajib. Tim developer perlu memperkuat DevSecOps mereka. Mereka harus memastikan bahwa kemudahan otomatisasi dari asisten AI tidak membuka pintu eksploitasi yang merugikan di masa depan.