🚨 Alerte sur une avancée matérielle en IA 🚨 Des chercheurs viennent de publier dans Nature Computational Science un nouveau mécanisme de calcul analogique en mémoire qui pourrait faire fonctionner les grands modèles de langage 100 fois plus vite et 10 000 fois plus économe en énergie. Au lieu de déplacer constamment les données d'un endroit à un autre comme le font les GPU, ce design stocke et traite l'information au même endroit, réduisant ainsi la latence et la consommation d'énergie. Ils ont déjà montré des performances équivalentes à celles de GPT-2 sans réentraînement complet. Si cela se développe, nous parlons de LLM sur des appareils edge, des téléphones, même du matériel IoT, sans centres de données nécessaires. Le goulot d'étranglement en calcul pourrait enfin se libérer. La révolution de l'IA ne sera pas seulement une question d'algorithmes plus intelligents. Il s'agira de nouvelles lois de la physique du calcul. Imaginez GPT-5-Pro fonctionnant localement, hors ligne, à une fraction des coûts énergétiques d'aujourd'hui…🤯