Bereken de voorspelling van schalen, niet begrijpen. LLM's comprimeren patronen, ze bouwen geen causale modellen of streven geen doelen na. Ontbrekende stukken: symbolische AI, gegronde feedback, langetermijngeheugen, gebruik van tools. We bereiken AGI niet gewoon door ernaar toe te schalen.
Far El
Far El8 aug, 01:45
It’s clear that you can’t squeeze AGI out of LLMs even if you throw billions of dollars worth of compute at it, something fundamental is missing
23,71K