🚨 Alertă 🚨 de revoluție hardware AI Cercetătorii tocmai au publicat în Nature Computational Science un nou mecanism analog de calcul în memorie care ar putea face modelele mari de limbaj să ruleze de 100 de ori mai rapid și de 10.000 de ori mai eficiente din punct de vedere energetic. În loc să amestece în mod constant datele înainte și înapoi, așa cum fac GPU-urile, acest design stochează și procesează informațiile în același loc, reducând latența și consumul de energie. Au arătat deja performanțe de nivel GPT-2 fără a se reantrena de la zero. Dacă acest lucru se scalează, vorbim despre LLM-uri pe dispozitive edge, telefoane, chiar și hardware IoT, fără a fi necesare centre de date. Blocajul de calcul s-ar putea deschide în cele din urmă. Revoluția AI nu va fi doar despre algoritmi mai inteligenți. Va fi vorba despre noua fizică a calculatoarelor. Imaginați-vă că GPT-5-Pro rulează local, offline, la o fracțiune din costurile de energie actuale... 🤯