Beräkning skalar förutsägelse, inte förståelse. LLM:er komprimerar mönster, de bygger inte kausala modeller eller strävar efter mål. Saknade delar: symbolisk AI, jordad feedback, minne med lång horisont, verktygsanvändning. Vi når inte AGI bara genom att skala mot det.
Far El
Far El8 aug. 01:45
Det är uppenbart att du inte kan pressa AGI ur LLM:er även om du kastar miljarder dollar i beräkning på det, något grundläggande saknas
23,75K