Prognoza skal obliczeniowych, brak zrozumienia. LLM kompresują wzorce, nie budują modeli przyczynowych ani nie dążą do celów. Brakujące elementy: symboliczna AI, ugruntowana informacja zwrotna, pamięć długoterminowa, użycie narzędzi. Nie osiągniemy AGI tylko przez skalowanie w jego kierunku.
Far El
Far El8 sie, 01:45
Jest jasne, że nie można wycisnąć AGI z LLM, nawet jeśli wrzucisz w to miliardy dolarów w obliczenia, czegoś fundamentalnego brakuje.
23,71K