🚨 Varsel om gjennombrudd for 🚨 AI-maskinvare Forskere publiserte nettopp i Nature Computational Science en ny analog in-memory databehandlingsmekanisme som kan få store språkmodeller til å kjøre 100 ganger raskere og 10 000 ganger mer energieffektive. I stedet for å hele tiden blande data frem og tilbake som GPUer gjør, lagrer og behandler denne designen informasjon på samme sted, og reduserer ventetid og strømforbruk. De har allerede vist ytelse på GPT-2-nivå uten å trene om fra bunnen av. Hvis dette skaleres, snakker vi om LLM-er på kantenheter, telefoner, til og med IoT-maskinvare, ingen datasentre kreves. Dataflaskehalsen kan endelig sprekke vidåpen. AI-revolusjonen vil ikke bare handle om smartere algoritmer. Det kommer til å handle om ny datafysikk. Se for deg at GPT-5-Pro kjører lokalt, offline, til en brøkdel av dagens energikostnader ... 🤯