🚨 AI hardware doorbraak alert 🚨 Onderzoekers hebben zojuist gepubliceerd in Nature Computational Science een nieuw analoog in-memory computing mechanisme dat grote taalmodellen 100x sneller en 10.000x energie-efficiënter kan laten draaien. In plaats van constant gegevens heen en weer te schuiven zoals GPU's doen, slaat dit ontwerp informatie op en verwerkt het op dezelfde plaats, waardoor latentie en energieverbruik worden verminderd. Ze hebben al prestaties op GPT-2-niveau aangetoond zonder opnieuw vanaf nul te trainen. Als dit opschaalt, hebben we het over LLM's op edge-apparaten, telefoons, zelfs IoT-hardware, zonder datacenters nodig. De rekengrens zou eindelijk wijd open kunnen breken. De AI-revolutie zal niet alleen gaan over slimmere algoritmen. Het zal gaan over nieuwe fysica van computing. Stel je voor dat GPT-5-Pro lokaal, offline draait, tegen een fractie van de huidige energiekosten…🤯