Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Te-ai întrebat vreodată de ce este nevoie de fapt pentru a antrena un model AI de frontieră?
Ankit Gupta (@GuptaAnkitV) de la YC a stat de vorbă cu Nick Joseph (@nickevanjoseph), șeful de pre-instruire al Anthropic, pentru a explora provocările inginerești din spatele antrenamentului lui Claude - de la gestionarea a mii de GPU-uri și depanarea bug-urilor blestemate până la echilibrarea calculului între pre-antrenament și RL.
Acestea acoperă legile de scalare, strategiile de date, compoziția echipei și de ce cele mai dificile probleme în AI sunt adesea probleme de infrastructură, nu probleme de ML.
01:05 – De la Vicarious la OpenAI la Anthropic
06:40 – Ce este preantrenamentul
11:20 – De ce a câștigat predicția următorului cuvânt
16:05 – Legile de scalare și bucla de feedback a modelelor de → de calcul → venituri
21:50 – Construirea infrastructurii timpurii a Anthropic
27:35 – Hack-uri de eficiență și depanare la scară largă
33:10 – Generaliști vs. specialiști în echipa de pretraining
38:45 – Provocările antrenamentului pe mii de GPU-uri
44:15 – Lucrul cu cipuri noi: GPU-uri vs. TPU-uri
49:00 – Pre-antrenament vs. post-antrenament (RLHF și modele de raționament)
54:25 – Viitorul calității și disponibilității datelor
59:10 – Unde urmează preantrenamentul
Acordați-vă:

96,64K
Limită superioară
Clasament
Favorite