Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Penelitian terkemuka di @PrimeIntellect
Saya mempekerjakan insinyur riset di @PrimeIntellect
Kami sedang membangun laboratorium agi open source dan mencari bakat mentah. Kami tidak peduli dengan jabatan Anda sebelumnya.
Semua orang di tim peneliti adalah tumpukan penuh, kami membangun infra dan juga melihat data. Jika Anda memiliki sweet spot untuk sistem, pembelajaran penguatan, data, atau hukum penskalaan, Anda akan dilayani dengan banyak tantangan untuk dipecahkan
83,09K
Sistem deklaratif basis teks akan menang, saatnya untuk menemukan kembali komputer

samsja17 Agu, 08.09
Mungkin llm + nixos akan menyelamatkan linux dengan membuat penggunanya 10x lebih kuat dengan memiliki agi komputer yang terhubung ke os. Bayangkan hanya bertanya "bisakah Anda menginstal kursor dan memindahkan semua pengaturan vscode saya ke sana"
Sementara itu pengguna macos masih akan menggunakan mouse mereka untuk mengunduh dan mengonfigurasi semuanya secara manual
Visi jangka pendek seperti itu untuk ingin melatih model visi untuk melakukan klik untuk saya, perlu mendesain ulang semuanya untuk agi
2,15K
Mungkin llm + nixos akan menyelamatkan linux dengan membuat penggunanya 10x lebih kuat dengan memiliki agi komputer yang terhubung ke os. Bayangkan hanya bertanya "bisakah Anda menginstal kursor dan memindahkan semua pengaturan vscode saya ke sana"
Sementara itu pengguna macos masih akan menggunakan mouse mereka untuk mengunduh dan mengonfigurasi semuanya secara manual
Visi jangka pendek seperti itu untuk ingin melatih model visi untuk melakukan klik untuk saya, perlu mendesain ulang semuanya untuk agi

samsja17 Agu, 07.46
Bukankah Nixos adalah permainan akhir dari Sandbox untuk LLM?
10,57K
RL sangat sensitif terhadap numerik, terakhir kali kompilasi obor membuat beberapa run crash sekarang vllm v1

Mika Senghaas12 Agu, 11.23
moving from vllm v0 to v1 made our async rl training crash! read how we fixed it
we recently migrated from v0 to v1 as part of a larger refactor of prime-rl to make it easier-to-use, more performant and naturally async. we confirmed correct training dynamics on many smaller-scale runs, but hit a wall when trying to reproduce a larger scale run that ran without problems prior to the refactor. Specifically, training DeepSeek-R1-Distill-Qwen-1.5B on single-turn math problems from our INTELLECT-2 math dataset at 8k context with two-step off-policy delay would crash fatally roughly 400 steps into the training

6,73K
o1/o3 adalah gpt5 yang sebenarnya dan mereka memberikan lompatan keras mungkin lebih besar dari gpt3 ke 4, RL masih terus mengikuti hukum penskalaan
Prapelatihan juga berskala tetapi inferensi terlalu mahal dengan model raksasa
Setuju bahwa open source akan menang

Yuchen Jin10 Agu, 12.04
GPT-5 gagal dua kali.
Undang-undang penskalaan akan segera berakhir.
AI sumber terbuka akan memiliki Mandat Surga.
4,36K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal