🚨 Alert o przełomie w sprzęcie AI 🚨 Naukowcy właśnie opublikowali w Nature Computational Science nowy mechanizm analogowego obliczania w pamięci, który może sprawić, że duże modele językowe będą działać 100 razy szybciej i 10 000 razy bardziej energooszczędnie. Zamiast ciągłego przesuwania danych tam i z powrotem, jak robią to GPU, ten projekt przechowuje i przetwarza informacje w tym samym miejscu, co znacznie zmniejsza opóźnienia i zużycie energii. Już pokazali wydajność na poziomie GPT-2 bez ponownego trenowania od podstaw. Jeśli to się rozwinie, mówimy o LLM na urządzeniach brzegowych, telefonach, a nawet sprzęcie IoT, bez potrzeby korzystania z centrów danych. Wąskie gardło obliczeniowe może w końcu zostać szeroko otwarte. Rewolucja AI nie będzie dotyczyć tylko mądrzejszych algorytmów. Będzie to także nowa fizyka obliczeń. Wyobraź sobie GPT-5-Pro działającego lokalnie, offline, za ułamek dzisiejszych kosztów energii…🤯