2 Kata Ini Ternyata Bikin ChatGPT Butuh Kekuatan Monster untuk Menjawab
- ChatGPT OpenAI
Gadget – Di era digital seperti sekarang, etika dan teknologi beriringan dalam cara yang tak selalu kita sadari. Mengucapkan “tolong” atau “terima kasih” kepada ChatGPT—tindakan yang dianggap membentuk budaya berinteraksi yang baik—ternyata bisa berdampak besar. Bukan hanya soal perilaku, tapi juga soal listrik, uang, dan energi.
Semua berawal dari sebuah pertanyaan santai di platform X. Seorang pengguna bertanya kepada Sam Altman, CEO OpenAI, tentang seberapa besar biaya listrik yang timbul dari orang-orang yang bersikap sopan kepada AI.
Jawaban Altman? Singkat tapi memancing perhatian: “Puluhan juta dollar terpakai dengan baik. Anda tidak akan pernah tahu.”
Dari sana, perbincangan merebak. Dunia teknologi pun mulai mempertanyakan, apakah benar kesopanan digital punya harga yang tak murah?
Token, Dolar, dan Listrik: Apa Hubungannya?
Setiap kata yang kita tulis ke ChatGPT diproses dalam bentuk token—unit terkecil dari bahasa dalam dunia AI. Kata “please” atau “thank you” mungkin hanya menambah 2–4 token dalam satu interaksi. Tapi token bukan cuma angka. Mereka punya harga.
Dalam model GPT-3.5 Turbo, misalnya, pemrosesan token dikenakan biaya sekitar:
$0,0015 per 1.000 input token
$0,002 per 1.000 output token
Jika satu ucapan sopan menyumbang tambahan token, maka ribuan, bahkan jutaan pengguna yang melakukan hal sama setiap hari, bisa menghasilkan beban operasional signifikan.
Simulasi perhitungannya cukup mencengangkan. Hanya dari kata-kata sopan, OpenAI bisa mengeluarkan sekitar $400 per hari, atau lebih dari $146.000 setahun—setara lebih dari Rp2,3 miliar. Dan ini hanya dari sopan santun.
Di Balik AI, Ada Konsumsi Energi Monster
Namun biaya operasional bukan hanya dalam bentuk dolar. Setiap token juga berarti daya listrik. Data dari pelatihan model GPT-4 menggambarkan realitas ini lebih gamblang.
Menurut Towards Data Science, pelatihan GPT-4:
Memakai 25.000 GPU Nvidia A100
Berlangsung selama 90–100 hari
Mengonsumsi hingga 57.525.000 KWh listrik setelah dikalikan efisiensi data center (PUE 1,18)
Bandingkan dengan GPT-3 yang "hanya" mengonsumsi sekitar 1.287 MWh. Artinya, GPT-4 lebih dari 40 kali lipat lebih haus energi.
Dalam konteks sederhana, pelatihan GPT-4 menghabiskan energi yang cukup untuk menyalakan 1.000 rumah tangga di Amerika selama lebih dari lima tahun.