Nvidia Waspada! AWS Rilis Trainium 3, Chip AI 4x Lebih Cepat & Hemat 40% Listrik

Nvidia Waspada! AWS Rilis Trainium 3, Chip AI 4x Lebih Cepat & Hemat 40% Listrik
Sumber :
  • Amazon Web Services

“Kami ingin memastikan bahwa saat dunia membangun model AI yang lebih besar, kami justru menggunakan lebih sedikit energi, bukan lebih banyak,” ujarnya.

Dalam konteks global, di mana pusat data diperkirakan akan menyumbang lebih dari 8% konsumsi listrik dunia pada 2030, efisiensi seperti ini menjadi nilai strategis, bukan sekadar keunggulan teknis.

Skalabilitas Ekstrem: Kluster 1 Juta Chip & 362 Petaflops

AWS merancang Trainium 3 untuk skala industri. Satu rak server dapat menampung hingga 144 chip Trainium 3. Dan ketika ribuan server tersebut digabung, AWS mampu membentuk kluster raksasa berisi lebih dari 1 juta chip.

Konfigurasi ini menghasilkan:

  • 362 petaflops daya komputasi (FP16)
  • Lebih dari 700 terabita per detik bandwidth agregat

Angka ini menjadikan Trainium 3 bukan hanya kompetitif, tapi superior dalam skenario pelatihan model bahasa besar (LLM) seperti Claude, Llama, atau model generatif multimodal.

Perusahaan seperti Anthropic (pengembang Claude), SplashMusic, Decart, dan startup AI asal Jepang Karakuri dikonfirmasi telah menggunakan Trainium 3 dan melaporkan penurunan signifikan biaya inferensi, terutama untuk aplikasi produksi skala besar.

Strategi Cerdas: Trainium 4 Akan Dukung NVLink Fusion dari Nvidia

Yang paling mengejutkan bukan hanya Trainium 3 tapi pengumuman roadmap Trainium 4 yang masih dalam pengembangan.

Garman mengungkap bahwa Trainium 4 akan membawa lompatan besar:

  • 6x peningkatan performa komputasi FP4
  • 4x bandwidth memori
  • 2x kapasitas memori berkecepatan tinggi

Namun, yang benar-benar membuat industri tercengang adalah pengumuman bahwa Trainium 4 akan mendukung NVLink Fusion milik Nvidia sistem interkoneksi berkecepatan tinggi yang memungkinkan transfer data ultra-cepat antar-chip.

Mengapa Ini Revolusioner?

Selama ini, banyak perusahaan terjebak dalam ekosistem CUDA Nvidia, platform pemrograman GPU yang menjadi standar industri. Migrasi ke chip non-Nvidia berarti risiko teknis dan biaya rekayasa ulang.

Dengan dukungan NVLink Fusion, AWS memungkinkan pelanggan untuk:

  • Menjalankan GPU Nvidia dan chip Trainium dalam satu rak server
  • Menggunakan CUDA untuk komponen kritis, sementara Trainium menangani beban inferensi berbiaya rendah
  • Mengoptimalkan kombinasi performa + efisiensi biaya

Langkah ini bukan hanya teknis tapi strategi geopolitik dan bisnis cerdas untuk menarik pengguna Nvidia tanpa memaksa mereka keluar dari ekosistem yang sudah mapan.