🚨 Allerta per una svolta nell'hardware AI 🚨 I ricercatori hanno appena pubblicato su Nature Computational Science un nuovo meccanismo di calcolo analogico in memoria che potrebbe far funzionare i modelli di linguaggio di grandi dimensioni 100 volte più velocemente e 10.000 volte più efficienti in termini energetici. Invece di spostare continuamente i dati avanti e indietro come fanno le GPU, questo design memorizza e elabora le informazioni nello stesso posto, riducendo la latenza e il consumo energetico. Hanno già dimostrato prestazioni a livello di GPT-2 senza dover riaddestrare da zero. Se questo si espande, stiamo parlando di LLM su dispositivi edge, telefoni, persino hardware IoT, senza la necessità di data center. Il collo di bottiglia computazionale potrebbe finalmente aprirsi. La rivoluzione dell'AI non riguarderà solo algoritmi più intelligenti. Riguarderà la nuova fisica del calcolo. Immagina GPT-5-Pro che gira localmente, offline, a una frazione dei costi energetici odierni…🤯