Peneliti MIT Temukan Cara Gandakan Kecepatan Pelatihan AI

Peneliti MIT Temukan Cara Gandakan Kecepatan Pelatihan AI
Sumber :
  • Istimewa

Samsung Galaxy S26 vs Vivo X300: Mana Flagship Terbaik 2026?
  • Peneliti MIT dan Nvidia menemukan teknik TLT untuk memangkas waktu pelatihan AI secara drastis.
  • Inovasi ini memanfaatkan waktu idle pada GPU yang selama ini terbuang saat proses sinkronisasi data.
  • Hasil eksperimen menunjukkan peningkatan kecepatan pelatihan antara 70% hingga 210% tanpa menurunkan akurasi model.

Waspada Penipuan Digital Ramadan, Komdigi Berantas Fake BTS

Biaya pelatihan model bahasa besar (LLM) kini sangat mahal dan menguras sumber daya energi yang masif. Peneliti dari MIT bersama Nvidia baru saja menemukan solusi praktis untuk mengoptimalkan kecepatan pelatihan AI dengan memanfaatkan waktu tunggu GPU. Teknik baru ini mampu memangkas waktu eksekusi hampir setengahnya dengan cara yang sangat efisien.

Terobosan ini berfokus pada fase "rollout" dalam reinforcement learning (RL). Pada tahap ini, model menghasilkan berbagai kandidat respons untuk mempelajari perilaku yang lebih baik. Namun, proses ini seringkali menjadi penghambat utama karena menghabiskan hingga 85% dari total waktu eksekusi.

Samsung Galaxy S26 Plus vs iPhone 17 Pro: Mana Lebih Layak?

Masalah "Long Tail" pada Performa GPU

Masalah utama dalam pelatihan model canggih terletak pada distribusi panjang respons yang tidak merata atau long-tail distribution. Sebagian besar respons selesai dengan cepat, namun beberapa respons membutuhkan waktu jauh lebih lama. Kondisi ini memaksa GPU yang bekerja cepat untuk berhenti dan menunggu GPU yang lebih lambat agar tetap sinkron.

Waktu menganggur atau idle time inilah yang menjadi sasaran tim peneliti MIT. Mereka memperkenalkan metode bernama Taming the Long Tail (TLT). Alih-alih membiarkan unit pemrosesan terdiam, TLT menggunakan sumber daya tersebut untuk melatih model "draft" ringan secara langsung di tengah proses pelatihan berlangsung.

Inovasi Speculative Decoding yang Dinamis

Teknik TLT ini mengandalkan konsep speculative decoding. Dalam metode tradisional, model kecil (draft) memprediksi token lebih awal agar model utama dapat memverifikasi beberapa token sekaligus secara paralel. Namun, model draft statis biasanya cepat usang saat model utama terus berevolusi selama proses RL.

TLT mengubah dinamika tersebut dengan melatih ulang model draft secara oportunistik menggunakan sumber daya yang menganggur. Hal ini memastikan model draft selalu selaras dengan model utama tanpa memerlukan biaya komputasi tambahan. Sistem ini secara cerdas mengubah waktu tunggu yang sia-sia menjadi sesi pelatihan produktif bagi model pendukung.

Halaman Selanjutnya
img_title