🚨 Внимание! Прорыв в аппаратном обеспечении ИИ 🚨 Исследователи только что опубликовали в журнале Nature Computational Science новый аналоговый механизм вычислений в памяти, который может сделать большие языковые модели в 100 раз быстрее и в 10 000 раз более энергоэффективными. Вместо того чтобы постоянно перемещать данные взад и вперед, как это делают GPU, этот дизайн хранит и обрабатывает информацию в одном месте, сокращая задержку и потребление энергии. Они уже продемонстрировали производительность на уровне GPT-2 без повторного обучения с нуля. Если это масштабируется, мы говорим о LLM на устройствах на краю, телефонах, даже аппаратном обеспечении IoT, без необходимости в дата-центрах. Узкое место в вычислениях, возможно, наконец-то будет устранено. Революция в ИИ будет не только о более умных алгоритмах. Речь пойдет о новой физике вычислений. Представьте себе GPT-5-Pro, работающий локально, оффлайн, за долю сегодняшних затрат на энергию…🤯