Jakarta - Kamis lalu, tepatnya 12 Februari 2026, OpenAI akhirnya meluncurkan model terbarunya. Namanya GPT-5.3-Codex-Spark. Ini bukan model biasa, tapi spesialis pemrograman yang diklaim bakal mengubah cara developer bekerja sehari-hari.
Intinya, Codex-Spark ini adalah versi lebih ringan dan cepat dari GPT-5.3-Codex. Targetnya jelas: coding real-time dengan latensi super rendah. Bayangkan, Anda butuh perbaikan logika bug kecil, atau mengedit sedikit kode untuk antarmuka. Model ini dirancang untuk menyelesaikan tugas-tugas ringan semacam itu dengan hasil yang muncul hampir seketika. Sangat responsif.
Nah, yang menarik dari peluncuran kali ini adalah teknologi di balik layarnya. Codex-Spark menjadi model pertama OpenAI yang memanfaatkan chip AI Wafer Scale Engine 3 (WSE-3) dari Cerebras. Kolaborasi senilai 10 miliar dolar AS ini ternyata membuahkan hasil yang nyata.
Dengan perangkat keras khusus itu, kecepatan inferensi model ini konon bisa menembus lebih dari 1.000 token per detik. Cukup gila. Tujuannya apa? OpenAI ingin menghilangkan jeda yang mengganggu. Mereka berambisi agar interaksi antara pengguna dan AI terasa lebih natural, seperti ngobrol dengan rekan sebelah meja, tanpa harus menunggu lama.
Dari sisi kapasitas, model ini dibekali jendela konteks sebesar 128.000 token untuk versi teks. Tapi jangan salah sangka. Berbeda dengan pendahulunya yang bisa menangani proyek berat dan jangka panjang, si "Spark" ini lebih spesifik. Kerjanya terarah. Misalnya, dia tidak otomatis menjalankan pengujian kode. Justru di situlah keunggulannya menurut mereka.
Dengan pendekatan ini, pengguna punya kendali penuh. Anda bisa menghentikan atau memperbaiki langsung hasil kerja AI di tengah-tengah proses kolaborasi. Jadi lebih interaktif, bukan sekadar perintah lalu tunggu.
Lalu, bagaimana cara mencobanya? Saat ini, GPT-5.3-Codex-Spark sudah tersedia dalam tahap "research preview", khusus untuk para pengguna ChatGPT Pro. Aksesnya bisa melalui aplikasi Codex tersendiri, antarmuka baris perintah (CLI), atau lewat ekstensi di VS Code. Cukup fleksibel.
Meski mengandalkan chip Cerebras untuk kecepatan respons yang luar biasa itu, OpenAI tetap memberikan catatan penting. Mereka menegaskan bahwa GPU konvensional masih menjadi tulang punggung utama. Untuk proses pelatihan model dan beban kerja inferensi skala besar, ketergantungan pada GPU tetap tidak tergantikan setidaknya untuk saat ini.
Artikel Terkait
Wisatawan Kanada Ditemukan Tewas di Hotel Labuan Bajo, Diduga Bunuh Diri
KPAI: Kasus Bunuh Diri Anak di Ngada Alarm Darurat Perlindungan Anak
Menteri PAN-RB: IKN Momentum Bangun Birokrasi Digital dan Terintegrasi
Golkar Resmikan Akademi Partai, Siapkan Kader dan Targetkan Tambah Kursi di 2029