Die Vorhersage von Computern ist nicht verständlich. LLMs komprimieren Muster, sie bauen keine kausalen Modelle oder verfolgen Ziele. Fehlende Elemente: symbolische KI, fundiertes Feedback, langfristiges Gedächtnis, Werkzeugnutzung. Wir erreichen AGI nicht einfach durch Skalierung in diese Richtung.
Far El
Far El8. Aug., 01:45
Es ist klar, dass man AGI nicht aus LLMs herauspressen kann, selbst wenn man Milliarden von Dollar in Rechenleistung investiert, es fehlt etwas Grundlegendes.
23,7K