DeepSeek V3.2: Saingi GPT‑5 dengan Biaya Training IRIT
DeepSeek V3.2: Saingi GPT‑5 dengan Biaya Training IRIT. DeepSeek V3.2 adalah model bahasa besar (LLM) yang, menurut laporan dan benchmark publik, menyamai kemampuan penalaran GPT‑5 sambil mengklaim butuh training compute hingga sekitar 90% lebih sedikit.
Lab yang berbasis di Hangzhou ini merilis dua versi:
- V3.2 – versi utama untuk pemakaian luas
- V3.2‑Speciale – versi “otak ekstra” untuk tugas yang lebih berat
Speciale yang paling heboh, karena meraih hasil setara medali emas di lomba seperti International Mathematical Olympiad (IMO) dan International Olympiad in Informatics (IOI).
Trik Utamanya: Bukan Tambah GPU, Tapi Tambah Pintar
Kebanyakan perusahaan AI mengejar performa dengan menambah ukuran model dan jumlah GPU. DeepSeek justru fokus ke efisiensi arsitektur.
Mereka memperkenalkan DeepSeek Sparse Attention (DSA): mekanisme perhatian yang hanya “serius memproses” token yang dianggap penting, bukan semuanya. Ibarat baca buku, kamu nggak ulang baca 500 halaman setiap ada pertanyaan; kamu langsung lompat ke bagian relevan. Ini mengurangi kerja komputasi besar‑besaran, terutama untuk konteks teks yang sangat panjang.
Di sisi lain, DeepSeek juga mengubah cara model menyimpan jejak penalaran saat memakai tool (eksekusi kode, pencarian, dsb.). Bukannya dibuang tiap giliran, bagian penting disimpan, sehingga model tidak perlu “berpikir ulang dari nol” dan pemakaian token jadi lebih hemat di skenario agentic AI.
Hasil Uji: Bukan Cuma Omong Besar
Beberapa angka yang sering dikutip:
- AIME 2025 (ujian matematika tingkat lanjut): skor V3.2 dan terutama Speciale berada di angka 90‑an persen, dengan Speciale sekitar 96% dan mengungguli GPT‑5 di benchmark tersebut.
- Medali emas di ajang IMO dan IOI, plus performa kuat di kompetisi matematika dan pemrograman lain.
- Di benchmark coding seperti Terminal Bench 2.0 dan SWE‑Verified, V3.2 tampil kompetitif dalam debugging dan menyelesaikan workflow rekayasa perangkat lunak.
Dengan kata lain, ini bukan sekadar model yang jago ngobrol; ia juga cukup lihai di matematika, logika, dan pengembangan software.

Open‑Source: Hadiah Besar untuk Developer
Satu poin penting: basis DeepSeek V3.2 dirilis open‑source dengan lisensi permisif, dan tersedia di platform seperti Hugging Face.
Keuntungannya buat tim teknis:
- Bisa dijalankan di server sendiri untuk jaga privasi data.
- Bisa di‑fine‑tune untuk kebutuhan spesifik (misal hanya fokus ke hukum, kesehatan, atau internal knowledge perusahaan).
- Tidak ke‑lock ke satu vendor; kalau mau pindah infrastruktur, model tetap bisa dibawa dan dimodifikasi.
Versi Speciale yang paling kencang memang hanya lewat API, tapi versi dasar V3.2 saja sudah cukup menarik sebagai fondasi produk AI serius.
DeepSeek Juga Punya PR
DeepSeek cukup jujur soal kekurangan V3.2:
- Token efficiency masih belum sehemat beberapa model tertutup; kadang butuh jawaban lebih panjang untuk menyamai kualitas saingan seperti Gemini 3 Pro.
- Luas pengetahuan umum belum setebal model yang dibangun dengan compute raksasa, jadi untuk topik sangat niche atau super baru, bisa sedikit tertinggal.
Rencana mereka: tambah compute pre‑training, poles rantai penalaran supaya lebih efisien, dan terus mengoptimalkan arsitektur.
Kenapa Kita Perlu Peduli?
DeepSeek V3.2 menunjukkan bahwa:
- Frontier AI tidak selalu identik dengan “bakar uang” – arsitektur pintar dan reinforcement learning yang dirancang baik bisa menutup gap tanpa budget tak terbatas.
- Model open‑source sekarang bisa main di liga yang sama dengan GPT‑5 dan Gemini 3 Pro, bukan cuma jadi alternatif murah.
Buat startup, peneliti, dan perusahaan yang selama ini cuma bisa “ngiler” lihat harga model premium, DeepSeek V3.2 ibarat bilang:
“Ini, ada otak AI kelas atas yang bisa kamu kustom sendiri – dan biayanya masih masuk akal.”
Kalau tren seperti ini berlanjut, pertanyaan besar buat industri adalah:
masih berapa banyak pemain yang mau bayar mahal untuk model tertutup, ketika open‑source mulai menyentuh level yang sama?
Jawaban atas itu bisa mengubah peta persaingan AI beberapa tahun ke depan.





