🚨 Peringatan 🚨 terobosan perangkat keras AI Para peneliti baru saja menerbitkan di Nature Computational Science mekanisme komputasi analog dalam memori baru yang dapat membuat model bahasa besar berjalan 100x lebih cepat dan 10.000x lebih hemat energi. Alih-alih terus-menerus mengocok data bolak-balik seperti yang dilakukan GPU, desain ini menyimpan dan memproses informasi di tempat yang sama, memangkas latensi dan penggunaan daya. Mereka telah menunjukkan kinerja level GPT-2 tanpa pelatihan ulang dari awal. Jika ini berskala, kita berbicara tentang LLM di perangkat edge, ponsel, bahkan perangkat keras IoT, tidak diperlukan pusat data. Kemacetan komputasi akhirnya mungkin terbuka lebar. Revolusi AI tidak hanya tentang algoritme yang lebih cerdas. Ini akan tentang fisika komputasi baru. Bayangkan GPT-5-Pro berjalan secara lokal, offline, dengan biaya energi yang lebih murah saat ini... 🤯