Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Когда-нибудь задумывались, что на самом деле нужно для обучения передовой модели ИИ?
Анкит Гупта из YC (@GuptaAnkitV) встретился с Ником Джозефом (@nickevanjoseph), главой предобучения в Anthropic, чтобы обсудить инженерные проблемы, связанные с обучением Клода — от управления тысячами GPU и отладки «проклятых» ошибок до балансировки вычислений между предобучением и RL.
Они обсуждают законы масштабирования, стратегии данных, состав команды и почему самые сложные проблемы в ИИ часто являются проблемами инфраструктуры, а не ML.
01:05 – От Vicarious к OpenAI и Anthropic
06:40 – Что такое предобучение
11:20 – Почему предсказание следующего слова оказалось успешным
16:05 – Законы масштабирования и обратная связь вычислений → модели → доход
21:50 – Построение ранней инфраструктуры Anthropic
27:35 – Хаки эффективности и отладка в масштабе
33:10 – Генералисты против специалистов в команде предобучения
38:45 – Проблемы обучения на тысячах GPU
44:15 – Работа с новыми чипами: GPU против TPU
49:00 – Предобучение против постобучения (RLHF и модели рассуждений)
54:25 – Будущее качества и доступности данных
59:10 – Куда движется предобучение дальше
Настройтесь:

96,64K
Топ
Рейтинг
Избранное