Waspada! 91.000 Serangan AI Targetkan Proxy LLM Rentan

Waspada! 91.000 Serangan AI Targetkan Proxy LLM Rentan
Sumber :
  • TechRadar

Perusahaan Mulai Serius Tangani Risiko Keamanan AI
  • GreyNoise mencatat 91.000 sesi Serangan AI yang masif antara Oktober 2025 hingga Januari 2026.
  • Pelaku secara spesifik menargetkan proxy yang salah konfigurasi pada layanan LLM besar (OpenAI, Gemini).
  • Dua modus utama serangan teridentifikasi: memaksa server "phone home" dan pemetaan sistem LLM secara sistematis untuk mencari celah.

Krisis Data: Cara Cepat Mengamankan Akun Instagram dari Serangan Reset Password

Dunia keamanan siber menghadapi ancaman signifikan. Sebuah laporan terbaru dari GreyNoise mengungkapkan intensitas masif Serangan AI yang menargetkan sistem Model Bahasa Besar (LLM). Dalam periode hanya empat bulan, dari Oktober 2025 hingga Januari 2026, GreyNoise mencatat lebih dari 91.000 sesi serangan. Pelaku jahat secara sistematis mengincar proxy rentan yang salah konfigurasi untuk membobol layanan inti LLM seperti OpenAI dan Google Gemini. Para ahli memperingatkan bahwa serangan ini menunjukkan upaya terorganisir untuk memetakan dan mengeksploitasi infrastruktur kecerdasan buatan global.

Modus Eksploitasi dan Skala Serangan AI

Google Chrome 150 Hentikan Dukungan macOS Monterey

GreyNoise, perusahaan riset keamanan, mengambil langkah proaktif dengan mendirikan sistem AI palsu yang sengaja diekspos ke publik. Tujuannya adalah memantau pihak-pihak yang mencoba berinteraksi atau mengeksploitasinya. Penelitian ini berhasil mengidentifikasi dua kampanye serangan yang sangat terstruktur.

Trik “Phone Home”: Memastikan Kerentanan

Dalam kampanye pertama, aktor ancaman mencoba menipu server AI agar secara diam-diam terhubung kembali ke server yang mereka kendalikan. Penyerang mengeksploitasi fitur seperti pengunduhan model atau webhooks.

Mereka memaksa server "phone home" tanpa sepengetahuan pemiliknya. Dengan memantau panggilan balik (callbacks), penyerang mengonfirmasi apakah sistem LLM yang mendasarinya benar-benar rentan terhadap eksploitasi lebih lanjut. Teknik ini merupakan langkah awal yang krusial sebelum melakukan serangan skala besar.

Pemetaan Sistem Model Bahasa Besar (LLM) Secara Sistematis

Kampanye kedua menunjukkan pendekatan yang lebih luas dan bertujuan untuk memetakan infrastruktur. GreyNoise mengamati dua alamat IP yang berulang kali menghantam endpoint AI yang terekspos hingga puluhan ribu kali.

Tujuan utama mereka bukan membobol sistem saat itu juga, tetapi memetakan model AI mana yang dapat dijangkau. Mereka ingin mengetahui konfigurasi apa saja yang digunakan. Untuk menghindari pemicu alarm, pelaku hanya mengirimkan pertanyaan yang sangat sederhana, seperti "Ada berapa negara bagian di AS." Metode ini membantu mereka menentukan model LLM yang digunakan, termasuk API ala OpenAI dan format Google Gemini. Mereka mencari proxy atau gateway yang secara tidak sengaja mengekspos akses internal atau berbayar ke layanan AI tersebut.

Ancaman di Balik Konfigurasi Proxy yang Salah

Para penyerang secara spesifik menargetkan proxy yang salah konfigurasi. Proxy tersebut bertindak sebagai gerbang antara pengguna eksternal dan Model Bahasa Besar yang berjalan di belakangnya. Jika dikonfigurasi secara tidak benar, proxy ini dapat memberikan celah kritis. Pelaku dapat menggunakannya untuk melihat apakah mereka bisa menembus layanan inti LLM. Eksploitasi celah ini berpotensi membahayakan data sensitif dan kekayaan intelektual model AI.

Indikasi Pelaku Jahat Profesional dan Terorganisir

GreyNoise meyakinkan publik bahwa kampanye ini bukan pekerjaan iseng-iseng atau peneliti keamanan biasa. Infrastruktur yang digunakan dalam kampanye kedua memiliki sejarah panjang eksploitasi kerentanan di dunia nyata.

Penelitian mengonfirmasi bahwa operasi ini memiliki sifat jahat. Puncaknya, serangan intensif ini terjadi selama liburan Natal. Waktu ini sering dimanfaatkan oleh pelaku kejahatan siber karena pengawasan dan respons tim keamanan cenderung melonggar. Para peneliti GreyNoise melihat server yang sama sebelumnya juga melakukan pemindaian terhadap ratusan Common Vulnerabilities and Exposures (CVEs). Fakta ini mengindikasikan adanya operasi 'grey-hat' yang terorganisir dan profesional.

Antisipasi Ancaman Terhadap Keamanan LLM di Masa Depan

Organisasi yang menggunakan dan mengembangkan Model Bahasa Besar harus segera melakukan audit mendalam terhadap keamanan infrastruktur mereka. Temuan 91.000 Serangan AI ini menekankan pentingnya konfigurasi proxy dan gateway yang ketat.

Di masa depan, pencegahan akses tidak sah ke API dan data internal harus menjadi prioritas utama. Mengingat skala serangan dan kecanggihan teknik yang digunakan, para ahli keamanan siber perlu secara proaktif mengadopsi protokol pertahanan yang lebih kuat untuk melindungi ekosistem LLM yang terus berkembang.