🚨 AI 硬件突破警报 🚨 研究人员刚刚在《自然计算科学》上发表了一种新的模拟内存计算机制,这种机制可以使大型语言模型的运行速度提高 100 倍,能效提高 10,000 倍。 与 GPU 不断来回传输数据不同,这种设计将信息存储和处理在同一位置,从而减少延迟和功耗。他们已经展示了 GPT-2 级别的性能,而无需从头开始重新训练。 如果这一技术能够扩展,我们将看到边缘设备、手机,甚至物联网硬件上的 LLM,无需数据中心。计算瓶颈可能终于会被打破。 AI 革命不仅仅是关于更智能的算法。这将是关于计算的新物理学。 想象一下,GPT-5-Pro 在本地、离线运行,能耗仅为今天的一个小部分……🤯