Anda sekarang dapat meluncurkan agen langsung dari Linear.
Delegasikan masalah atau sebutkan @cursor dalam komentar untuk memulai pekerjaan agen pada tugas tersebut.
Lapisan MoE bisa sangat lambat. Saat melatih model pengkodean kami @cursor_ai, mereka menghabiskan 27-53% waktu pelatihan.
Jadi kami sepenuhnya membangunnya kembali di tingkat kernel dan beralih ke MXFP8. Hasilnya: lapisan MoE 3,5x lebih cepat dan percepatan pelatihan end-to-end 1,5x.
Kami percaya tumpukan pelatihan MXFP8 MoE kami lebih cepat daripada alternatif sumber terbuka yang tersedia saat ini.
Baca lebih lanjut di sini: