トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
フロンティア AI モデルをトレーニングするために実際に何が必要か考えたことはありますか?
YCのAnkit Gupta氏(@GuptaAnkitV)は、Anthropicのプレトレーニング責任者であるNick Joseph氏(@nickevanjoseph)と対談し、数千台のGPUの管理や呪われたバグのデバッグから、事前トレーニングとRLの間のコンピューティングのバランス調整まで、Claudeのトレーニングの背後にあるエンジニアリングの課題を探りました。
スケーリング法則、データ戦略、チーム構成、そしてAIで最も難しい問題がMLの問題ではなくインフラストラクチャの問題であることが多い理由について説明しています。
01:05 - VicariousからOpenAIへ、Anthropic
06:40 - 事前トレーニングとは
11:20 - 次の単語の予測が勝った理由
16:05 – 収益→コンピューティング → モデルのスケーリング法則とフィードバック ループ
21:50 - Anthropicの初期のインフラの構築
27:35 - 効率化のハックと大規模なデバッグ
33:10 – プレトレーニングチームのジェネラリストとスペシャリスト
38:45 – 数千のGPUにわたるトレーニングの課題
44:15 - 新しいチップの操作:GPUとTPU
49:00 – 事前トレーニングと事後トレーニング (RLHF および推論モデル)
54:25 - データ品質と可用性の未来
59:10 - 事前トレーニングの次の場所
視聴する:

91.31K
トップ
ランキング
お気に入り