Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hast du dich jemals gefragt, was es wirklich braucht, um ein Frontier-AI-Modell zu trainieren?
Ankit Gupta von YC (@GuptaAnkitV) hat sich mit Nick Joseph (@nickevanjoseph), dem Leiter des Pre-Trainings bei Anthropic, zusammengesetzt, um die technischen Herausforderungen beim Training von Claude zu erkunden – von der Verwaltung von Tausenden von GPUs und dem Debuggen verfluchter Bugs bis hin zum Ausbalancieren der Rechenleistung zwischen Pre-Training und RL.
Sie behandeln Skalierungsgesetze, Datenstrategien, Teamzusammensetzung und warum die schwierigsten Probleme in der KI oft Infrastrukturprobleme und keine ML-Probleme sind.
01:05 – Von Vicarious zu OpenAI zu Anthropic
06:40 – Was Pretraining ist
11:20 – Warum die Vorhersage des nächsten Wortes gewonnen hat
16:05 – Skalierungsgesetze und der Feedback-Loop von Rechenleistung → Modelle → Einnahmen
21:50 – Aufbau der frühen Infrastruktur von Anthropic
27:35 – Effizienz-Hacks und Debugging im großen Maßstab
33:10 – Generalisten vs. Spezialisten im Pretraining-Team
38:45 – Herausforderungen beim Training über Tausende von GPUs
44:15 – Arbeiten mit neuen Chips: GPUs vs. TPUs
49:00 – Pretraining vs. Post-Training (RLHF und Denkmodelle)
54:25 – Die Zukunft der Datenqualität und -verfügbarkeit
59:10 – Wohin das Pretraining als Nächstes geht
Einschalten:

82,56K
Top
Ranking
Favoriten