🚨 Сповіщення про 🚨 прорив апаратного забезпечення зі штучним інтелектом Дослідники щойно опублікували в Nature Computational Science новий аналоговий обчислювальний механізм у пам'яті, який може змусити великі мовні моделі працювати в 100 разів швидше та в 10 000 разів енергоефективніше. Замість того, щоб постійно перемішувати дані туди-сюди, як це роблять графічні процесори, ця конструкція зберігає та обробляє інформацію в одному місці, скорочуючи затримку та споживання енергії. Вони вже показали продуктивність на рівні GPT-2 без перенавчання з нуля. Якщо це масштабується, ми говоримо про LLM на периферійних пристроях, телефонах, навіть обладнанні IoT, без дата-центрів. Вузьке місце в обчисленнях може нарешті розкритися навстіж. Революція штучного інтелекту стосуватиметься не лише розумніших алгоритмів. Мова піде про нову фізику обчислень. Уявіть, що GPT-5-Pro працює локально, в автономному режимі, за незначну частину сьогоднішніх витрат на енергію... 🤯