o1/o3 étaient les véritables gpt5 et ils ont vraiment livré, peut-être un saut plus grand que de gpt3 à 4, RL continue de suivre la loi de l'échelle. Le pré-entraînement s'échelonne également, mais l'inférence est tout simplement trop coûteuse avec un modèle géant. Je suis d'accord que l'open source va gagner.
Yuchen Jin
Yuchen Jin10 août, 12:04
GPT-5 failed twice. Scaling laws are coming to an end. Open-source AI will have the Mandate of Heaven.
4,33K