o1/o3 byli skuteční GPT5 a podali tvrdý možná větší skok než GPT3 na 4, RL stále pokračuje v dodržování zákona škálování Předtrénování se také škáluje, ale inference je u obřího modelu prostě příliš drahá Souhlasím s tím, že open source vyhraje
Yuchen Jin
Yuchen Jin10. 8. 12:04
GPT-5 failed twice. Scaling laws are coming to an end. Open-source AI will have the Mandate of Heaven.
4,32K