🚨 Durchbruch bei der KI-Hardware 🚨 Forscher haben gerade in Nature Computational Science einen neuen analogen In-Memory-Computing-Mechanismus veröffentlicht, der große Sprachmodelle 100x schneller und 10.000x energieeffizienter machen könnte. Anstatt Daten ständig hin und her zu schieben, wie es GPUs tun, speichert und verarbeitet dieses Design Informationen am selben Ort, wodurch Latenz und Stromverbrauch gesenkt werden. Sie haben bereits eine Leistung auf GPT-2-Niveau ohne vollständiges Retraining gezeigt. Wenn sich das skalieren lässt, sprechen wir von LLMs auf Edge-Geräten, Handys, sogar IoT-Hardware, ohne benötigte Rechenzentren. Der Engpass bei der Berechnung könnte endlich weit geöffnet werden. Die KI-Revolution wird nicht nur um intelligentere Algorithmen gehen. Es wird um die neue Physik des Rechnens gehen. Stell dir vor, GPT-5-Pro läuft lokal, offline, zu einem Bruchteil der heutigen Energiekosten…🤯