
Fireworks AI merilis pratinjau versi Fireworks Training, memperluas posisi perusahaan dari penyedia infrastruktur inferensi murni menjadi platform terpadu “pelatihan + deployment”. Perusahaan infrastruktur AI yang didirikan oleh Lin Qiao (mantan insinyur Meta dan ikut terlibat dalam membangun PyTorch) saat ini memiliki valuasi sebesar 4 miliar dolar AS, dengan jumlah token yang diproses per hari mencapai 1,5 triliun.
Arsitektur tiga lapis Fireworks Training dirancang untuk pengguna dengan latar belakang teknis yang berbeda, sehingga tim produk, insinyur ML, dan peneliti dapat menyelesaikan alur lengkap dari pelatihan hingga deployment dalam satu platform:
Training Agent (lapisan tanpa kode): ditujukan untuk tim produk yang tidak memiliki infrastruktur ML; deskripsikan tugas, unggah data, dan proses end-to-end dapat diselesaikan; saat ini mendukung fine-tuning LoRA
Managed Training (lapisan insinyur): ditujukan untuk insinyur ML; mendukung fine-tuning SFT, DPO, dan reinforcement learning; mencakup kemampuan pelatihan seluruh parameter
Training API (lapisan penelitian): ditujukan untuk tim riset; dapat mendefinisikan fungsi loss dan siklus pelatihan secara mandiri; mendukung algoritma reinforcement learning seperti GRPO, DAPO, dll
Skala pelatihan seluruh parameter sangat luas—mulai dari Qwen3 8B pada satu node hingga model berparameter hingga triliunan seperti Kimi K2.5 yang dijalankan di 64 GPU NVIDIA B200, mencakup rentang skala penuh dari model open-source arus utama saat ini.
Di antara pelanggan inferensi yang sudah ada di Fireworks AI, sudah ada tiga perusahaan aplikasi AI terdepan yang menyelesaikan pelatihan reinforcement learning canggih dan mempublikasikan data performa yang spesifik.
Vercel: melatih model perbaikan otomatis untuk produk pembuatan kode v0; tingkat generasi kode tanpa kesalahan mencapai 93%, sementara Claude Sonnet 3.5 hanya 62% dalam kondisi yang sama; latensi end-to-end meningkat 40 kali dibanding model closed-source yang digunakan sebelumnya.
Genspark: melakukan fine-tuning reinforcement learning pada model open-source berparameter hingga triliunan Kimi K2 untuk membangun agen riset mendalam; jumlah pemanggilan alat meningkat 33%, dan biaya inferensi turun 50%.
Cursor: menyelesaikan pelatihan reinforcement learning Composer 2 secara terdistribusi pada 3 hingga 4 klaster di seluruh dunia; saat ini menduduki peringkat pertama di CursorBench, serta mewujudkan berbagi satu kumpulan sumber daya GPU yang sama antara pelatihan dan inferensi produksi.
Perbedaan teknologi pembeda utama yang ditekankan Fireworks AI terletak pada “konsistensi numerik” antara pelatihan dan inferensi. Pada model MoE (mixture of experts), deviasi nilai numerik kecil pada keadaan tersembunyi dapat menimbulkan efek amplifikasi berantai pada keputusan routing pakar, sehingga perilaku model yang dipelajari dalam lingkungan pelatihan tidak dapat direplikasi sepenuhnya saat inferensi.
Fireworks memublikasikan nilai KL divergence antara pelatihan dan inferensi untuk semua model yang didukung; semua model berada di bawah 0.01, menyediakan acuan konsistensi yang dapat dikuantifikasi untuk perbandingan, sehingga pengembang dapat menilai stabilitas perilaku model saat berpindah dari pelatihan ke deployment produksi.
Fireworks AI adalah perusahaan infrastruktur inferensi AI yang didirikan oleh Lin Qiao (mantan insinyur Meta) yang pernah terlibat dalam membangun PyTorch. Valuasi perusahaan saat ini mencapai 4 miliar dolar AS, jumlah token yang diproses per hari sebesar 1,5 triliun, dan pelanggan inti mencakup aplikasi AI arus utama seperti Cursor, Vercel, Genspark, dll.
Training Agent ditujukan untuk tim produk yang tidak memiliki infrastruktur ML (operasi tanpa kode); Managed Training ditujukan untuk insinyur ML (mendukung pelatihan seluruh parameter untuk SFT, DPO, dan reinforcement learning); Training API ditujukan untuk tim riset (dapat mendefinisikan fungsi loss dan siklus pelatihan secara mandiri, mendukung algoritma seperti GRPO, DAPO, dll).
KL divergence mengukur deviasi numerik antara lingkungan pelatihan dan inferensi; semakin besar deviasi, semakin tidak stabil perilaku model setelah dideploy. Ini sangat penting untuk model MoE—deviasi kecil dapat diperbesar menjadi perbedaan keputusan routing. Fireworks AI mempublikasikan metrik yang dapat dikuantifikasi agar pengembang bisa menilai secara objektif kualitas konsistensi model dari pelatihan hingga deployment.