Nvidia Rilis Nemotron 3 Super: AI 120B Parameter Tercepat di Kelasnya!
- TheNewStack
Gadget – Nvidia kembali memperkuat dominasinya di dunia kecerdasan buatan dengan peluncuran Nemotron 3 Super, model AI terbaru yang hadir sebagai pesaing serius bagi GPT-5 dari OpenAI dan Gemini 3.1 Pro dari Google. Diumumkan pekan ini, model ini merupakan evolusi signifikan dari Nemotron 3 Nano yang diluncurkan pada Desember 2025.
Dengan 120 miliar parameter, arsitektur hybrid canggih, dan kemampuan memproses hingga 1 juta token dalam satu sesi, Nemotron 3 Super tidak hanya menawarkan skala besar tapi juga kecepatan dan efisiensi komputasi yang luar biasa. Lebih dari sekadar model bahasa, ia dirancang khusus untuk menjalankan sistem AI berbasis agen (agentic AI) secara paralel dan real-time.
Artikel ini mengupas tuntas spesifikasi teknis, arsitektur inovatif, hasil benchmark, ketersediaan platform, serta posisi strategis Nemotron 3 Super dalam persaingan global AI.
Dari Nano ke Super: Evolusi Keluarga Nemotron 3
Nemotron 3 Super adalah bagian dari ekosistem AI generatif Nvidia yang mulai diperkenalkan akhir 2025. Jika Nemotron 3 Nano (30 miliar parameter) ditujukan untuk tugas spesifik seperti ringkasan dokumen atau respons chatbot sederhana, maka Nemotron 3 Super dibangun untuk skenario yang jauh lebih kompleks:
- Sistem multi-agen AI yang saling berkoordinasi
- Simulasi dunia virtual dengan banyak entitas cerdas
Otomatisasi bisnis tingkat lanjut (misalnya: customer service AI + analis data + pengambil keputusan)
Perbedaan ini mencerminkan strategi Nvidia: tidak hanya menyediakan model AI, tapi infrastruktur lengkap untuk ekosistem agentic AI masa depan.
Arsitektur Hybrid: Kombinasi Mamba-Transformer dan Mixture-of-Experts
Salah satu terobosan utama Nemotron 3 Super adalah penggunaan arsitektur hybrid latent mixture-of-experts (MoE) dan Mamba-Transformer.
Apa itu Mamba-Transformer?
Mamba adalah arsitektur state-space model (SSM) yang lebih efisien daripada Transformer tradisional dalam menangani urutan panjang. Dengan menggabungkannya dengan Transformer, Nvidia menciptakan model yang:
- Lebih cepat dalam memproses konteks panjang
- Lebih hemat memori
- Tidak kehilangan kemampuan reasoning kompleks
Apa itu Latent Mixture-of-Experts (MoE)?
MoE memungkinkan model memilih “pakar” (sub-jaringan) tertentu hanya saat dibutuhkan. Nemotron 3 Super dapat mengaktifkan hingga 4x lebih banyak pakar selama inferensi tanpa menaikkan biaya komputasi secara proporsional.
Hasilnya? Model yang sangat responsif terhadap instruksi kompleks, namun tetap efisien dalam penggunaan GPU.