Sebagai pemimpin global yang menggerakkan hampir dua miliar perangkat setiap tahun, MediaTek mempercepat transformasinya menjadi inovator AI full-stack. Seiring AI mengubah hampir seluruh aspek kehidupan, mulai dari pengalaman mobile, rumah, dan otomotif hingga alur kerja enterprise, MediaTek berinvestasi secara strategis untuk terus meningkatkan kapabilitas AI pada chipset, membangun ekosistem developer yang dinamis, serta menghadirkan solusi AI lokal siap pakai yang mendorong permintaan jangka panjang.
Untuk mendukung inisiatif tersebut, MediaTek membangun AI factory on-premises yang aman dan berperforma tinggi berbasis NVIDIA DGX SuperPOD™. Lingkungan ini memusatkan beban kerja pelatihan dan inferensi paling menantang, menghasilkan peningkatan produktivitas yang signifikan, serta menyediakan fondasi yang dapat diskalakan untuk pengembangan AI generasi berikutnya.
Menskalakan ambisi AI dengan platform terpadu berperforma tinggi
Seiring berkembangnya upaya LLM MediaTek, seperti seri Breeze, termasuk model bahasa Mandarin tradisional raksasa dengan 480 miliar parameter—kebutuhan komputasi dengan cepat melampaui infrastruktur konvensional. MediaTek secara rutin memproses miliaran token setiap bulan dan menjalankan puluhan ribu iterasi pelatihan, sambil tetap menjaga keamanan data sensitif dan memungkinkan eksperimen yang cepat.
NVIDIA DGX SuperPOD menjadi solusi ideal untuk kebutuhan bisnis tersebut. Arsitekturnya yang skalabel, didukung sistem berbasis NVIDIA Blackwell, memungkinkan pelatihan dan deployment model berparameter miliaran dengan kecepatan dan efisiensi yang belum pernah ada sebelumnya.
“AI factory kami yang didukung DGX SuperPOD memproses sekitar 60 miliar token per bulan untuk inferensi dan menyelesaikan ribuan iterasi pelatihan model setiap bulan,”
David Ku, Co-COO dan CFO MediaTek
Inferensi model pada skala ini sering kali membutuhkan distribusi model besar ke banyak GPU. Sistem DGX SuperPOD yang terintegrasi erat memungkinkan hal tersebut melalui komunikasi ultra-cepat, akses memori GPU yang tersinkronisasi, dan throughput terdepan di industri.
“DGX SuperPOD sangat krusial untuk beban kerja inferensi kami. Platform ini memungkinkan deployment dan eksekusi model masif yang tidak dapat dijalankan pada satu GPU atau bahkan satu server, sekaligus memastikan performa dan akurasi terbaik untuk aplikasi AI kami yang paling menuntut,”
David Ku, Co-COO dan CFO MediaTek
Mempercepat R&D dengan software AI kelas enterprise
Selain akselerasi hardware, ekosistem software NVIDIA juga berperan besar dalam memaksimalkan nilai AI factory MediaTek. Dengan memanfaatkan TensorRT-LLM dan NIM microservices di DGX, tim MediaTek berhasil mencapai:
- Kecepatan inferensi 40% lebih cepat
- Throughput token 60% lebih tinggi
- Model yang lebih ringkas dan terdistilasi, dioptimalkan untuk deployment on-device dan edge
Peningkatan ini secara langsung mendukung pengembangan AI-assisted coding, analisis desain otomatis, serta agen dokumentasi berbasis LLM yang diadaptasi ke domain tertentu—membantu engineer menyelesaikan alur kerja dalam hitungan hari, bukan minggu.
“Dengan DGX SuperPOD, kami beralih dari melatih model 7 miliar parameter dalam satu minggu menjadi melatih model dengan lebih dari 480 miliar parameter dalam jangka waktu yang sama, sebuah lompatan besar yang secara signifikan mempercepat kapabilitas AI kami,”
David Ku, Co-COO dan CFO MediaTek
Terintegrasi dengan NVIDIA DGX Spark™, yang menggunakan NVIDIA GB10 Grace Blackwell superchip hasil co-design dengan MediaTek, NVIDIA Riva juga mempercepat pengembangan SLM dan teknologi suara. Hal ini memungkinkan pipeline ASR dan TTS berkualitas tinggi untuk fitur berbasis suara seperti pencarian, penjadwalan, dan pesan—membawa interaksi yang lebih natural ke perangkat MediaTek di masa depan.