Обчислюйте шкали передбачення, а не розуміння. ЛМ стискають патерни, вони не будують причинно-наслідкові моделі і не переслідують цілі. Відсутні елементи: символічний ШІ, заземлений зворотний зв'язок, пам'ять з довгим горизонтом, використання інструментів. Ми не приходимо до AGI, просто масштабуючись до нього.
Far El
Far El8 серп., 01:45
Зрозуміло, що ви не можете вичавити AGI з LLM, навіть якщо ви кинете на це обчислення на мільярди доларів, чогось фундаментального не вистачає
23,71K