Přemýšleli jste někdy, co je vlastně potřeba k trénování hraničního modelu umělé inteligence? Ankit Gupta (@GuptaAnkitV) z YC se sešel s Nickem Josephem (@nickevanjoseph), vedoucím předškolení společnosti Anthropic, aby prozkoumali technické výzvy, které stojí za trénováním Clauda – od správy tisíců GPU a ladění prokletých chyb až po vyvážení výpočtů mezi předtrénováním a RL. Zabývají se zákony škálování, datovými strategiemi, složením týmů a tím, proč jsou nejtěžšími problémy v AI často problémy infrastruktury, nikoli problémů ML. 01:05 – Od zástupného přes OpenAI až po antropické 06:40 – Co je to předtrénink 11:20 – Proč zvítězila předpověď dalšího slova 16:05 – Zákony škálování a zpětnovazební smyčka modelů výpočetních → → výnosy 21:50 – Budování rané infrastruktury společnosti Anthropic 27:35 – Efektivita hackování a ladění ve velkém měřítku 33:10 – Generalisté vs. specialisté v předtréninkovém týmu 38:45 – Výzvy tréninku napříč tisíci GPU 44:15 – Práce s novými čipy: GPU vs. TPU 49:00 – Pretraining vs. post-training (RLHF a modely uvažování) 54:25 – Budoucnost kvality a dostupnosti dat 59:10 – Kam se bude ubírat předtrénink
Naladit:
63,72K