熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
你是否曾想過訓練一個前沿 AI 模型實際上需要什麼?
YC 的 Ankit Gupta (@GuptaAnkitV) 與 Anthropic 的預訓練負責人 Nick Joseph (@nickevanjoseph) 坐下來探討訓練 Claude 背後的工程挑戰——從管理數千個 GPU 和調試詛咒的錯誤,到在預訓練和強化學習之間平衡計算。
他們討論了擴展法則、數據策略、團隊組成,以及為什麼 AI 中最困難的問題往往是基礎設施問題,而不是機器學習問題。
01:05 – 從 Vicarious 到 OpenAI 再到 Anthropic
06:40 – 什麼是預訓練
11:20 – 為什麼下一個單詞預測勝出
16:05 – 擴展法則和計算 → 模型 → 收入的反饋循環
21:50 – 建立 Anthropic 的早期基礎設施
27:35 – 效率技巧和大規模調試
33:10 – 預訓練團隊中的通才與專家
38:45 – 在數千個 GPU 上訓練的挑戰
44:15 – 使用新芯片:GPU 與 TPU
49:00 – 預訓練與後訓練(RLHF 和推理模型)
54:25 – 數據質量和可用性的未來
59:10 – 預訓練的下一步
收聽:

91.3K
熱門
排行
收藏