🚨 AI 硬體突破警報 🚨 研究人員剛在《自然計算科學》上發表了一種新的類比內存計算機制,這可能使大型語言模型的運行速度提高 100 倍,能效提高 10,000 倍。 這種設計不再像 GPU 一樣不斷地來回移動數據,而是將信息存儲和處理在同一位置,從而大幅降低延遲和功耗。他們已經展示了 GPT-2 水平的性能,而無需從頭開始重新訓練。 如果這能擴展,我們將在邊緣設備、手機甚至物聯網硬體上運行 LLM,無需數據中心。計算瓶頸可能終於會被打破。 AI 革命不僅僅是更智能的算法。它將關乎計算的新物理學。 想像一下,GPT-5-Pro 在本地、離線運行,能耗僅為今天的幾分之一……🤯