Mengenal Dark AI yang Membuat Dunia Siber Lebih Gelap

Sergey Lozhkin, Kaspersky
Sumber :
  • Sarie/GadgetViva

Gadget – Virus dan ancaman siber kini menyebar lebih cepat dan lebih banyak karena bantuan AI yang membuatnya lebih canggih. Kaspersky menyebut ini sebagai Dark AI, sebuah upaya penyalahgunaan AI untuk melakukan kejahatan siber berupa pembuatan malicious code atau kode berbahaya yang mengancam bisnis.

Menurut Sergey Lozhkin, Kepala Tim Riset & Analisis Global (GReAT) untuk META dan APAC di Kaspersky, penyerang menggunakan teknologi AI untuk melancarkan ancaman digital di seluruh dunia, mulai dari serangan phishing sederhana hingga spionase siber yang didukung negara..

“Sejak ChatGPT mendapatkan popularitas global pada tahun 2023, kami telah mengamati beberapa adopsi AI yang bermanfaat, mulai dari tugas-tugas sederhana seperti pembuatan video hingga deteksi dan analisis ancaman teknis. Di saat yang sama, pelaku kejahatan siber menggunakannya untuk meningkatkan kemampuan serangan mereka. Kita memasuki era keamanan siber dan masyarakat di mana AI adalah perisai dan Dark AI adalah pedangnya,” kata Sergey Lozhkin, pada Cyber Security Weekend 2025 di Da Nang, Vietnam.

 AI gelap mengacu pada penerapan model bahasa besar (LLM) lokal atau jarak jauh yang tidak dibatasi dalam kerangka kerja penuh atau sistem chatbot yang digunakan untuk tujuan berbahaya, tidak etis, atau tidak sah. Sistem ini beroperasi di luar kendali keamanan, kepatuhan, atau tata kelola standar, yang seringkali memungkinkan kemampuan seperti penipuan, manipulasi, serangan siber, atau penyalahgunaan data tanpa pengawasan.

Lozhkin menjelaskan bahwa penggunaan AI berbahaya yang paling umum dan terkenal saat ini adalah dalam bentuk Black Hat GPT, yang muncul sejak pertengahan tahun 2023. Ini adalah model AI yang sengaja dibuat, dimodifikasi, atau digunakan untuk melakukan aktivitas yang tidak etis, ilegal, atau berbahaya seperti menghasilkan kode berbahaya, merancang email phishing yang lancar dan persuasif untuk serangan massal maupun tertarget, membuat deepfake suara dan video, dan bahkan mendukung operasi Red Team.

Black Hat GPT dapat berupa model AI privat atau semi-privat. Contoh yang diketahui antara lain WormGPT, DarkBard, FraudGPT, dan Xanthorox, yang dirancang atau diadaptasi untuk mendukung kejahatan siber, penipuan, dan otomatisasi berbahaya.

Selain penggunaan Dark AI yang umum, Lozhkin mengungkapkan bahwa para ahli Kaspersky kini mengamati tren yang lebih gelap – aktor negara-bangsa memanfaatkan LLM dalam kampanye mereka. OpenAI baru-baru ini mengungkapkan telah menggagalkan lebih dari 20 operasi siber terselubung yang mencoba menyalahgunakan perangkat AI-nya. Kita dapat memperkirakan para pelaku ancaman akan menciptakan cara yang lebih cerdas untuk mempersenjatai AI generatif yang beroperasi di ekosistem ancaman publik dan privat. Kita harus bersiap menghadapinya,” jelasnya.

Laporan OpenAI mengungkapkan bahwa para pelaku kejahatan siber telah menggunakan LLM untuk menciptakan persona palsu yang meyakinkan, merespons target secara real-time, dan menghasilkan konten multibahasa yang dirancang untuk menipu korban dan menerobos filter keamanan tradisional.

“AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah. Bahkan ketika perlindungan telah diterapkan, kita tahu APT adalah penyerang yang gigih,” tambah Sergey.

Seiring dengan semakin mudah diakses dan mumpuninya perangkat dark AI, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat higiene keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi.

Beberapa tips yang dipaparkan Sergey untuk melakukan pencegahan agar tidak terkena dampak Dark AI beberapa di antaranya seperti menggunakan solusi keamanan generasi mendatang seperti Kaspersky Next untuk mendeteksi malware dan ancaman berbasis AI dalam rantai pasokan, memanfaatkan alat intelijen ancaman waktu nyata untuk memantau eksploitasi berbasis AI. membatasi kontrol akses dan edukasi karyawan untuk mengurangi risiko dari AI bayangan dan kebocoran data, serta mendirikan Pusat Operasi Keamanan (SOC) untuk pemantauan ancaman waktu nyata dan respons cepat.

 

Dapatkan informasi terbaru seputar Gadget, Anime, Game, Tech dan Berita lainnya setiap hari melalui social media Gadget VIVA. Ikuti kami di :
Instagram @gadgetvivacoid
Facebook Gadget VIVA.co.id
X (Twitter) @gadgetvivacoid
Whatsapp Channel Gadget VIVA
Google News Gadget