o1/o3 były prawdziwym gpt5 i dostarczyły mocno, może większy skok niż gpt3 do 4, RL nadal kontynuuje podążanie za prawem skalowania Pretraining również się skaluje, ale wnioskowanie jest po prostu zbyt kosztowne z gigantycznym modelem Zgadzam się jednak, że open source wygra.
Yuchen Jin
Yuchen Jin10 sie, 12:04
GPT-5 zawiódł dwa razy. Prawo skalowania dobiega końca. Otwarte źródła AI będą miały Mandat Nieba.
4,36K