🚨 تنبيه 🚨 اختراق الأجهزة الذكاء الاصطناعي نشر الباحثون للتو في Nature Computational Science آلية حوسبة تناظرية جديدة في الذاكرة يمكن أن تجعل نماذج اللغات الكبيرة تعمل أسرع 100 مرة وأكثر كفاءة في استخدام الطاقة بمقدار 10000 مرة. بدلا من خلط البيانات باستمرار ذهابا وإيابا كما تفعل وحدات معالجة الرسومات ، يقوم هذا التصميم بتخزين المعلومات ومعالجتها في نفس المكان ، مما يقلل من زمن الوصول واستخدام الطاقة. لقد أظهروا بالفعل أداء مستوى GPT-2 دون إعادة التدريب من الصفر. إذا كان هذا يتسع ، فنحن نتحدث عن LLMs على الأجهزة المتطورة والهواتف وحتى أجهزة إنترنت الأشياء ، ولا توجد مراكز بيانات مطلوبة. قد ينفتح عنق الزجاجة في الحساب على مصراعيه في النهاية. لن تكون ثورة الذكاء الاصطناعي تتعلق فقط بخوارزميات أكثر ذكاء. سيكون الأمر يتعلق بفيزياء الحوسبة الجديدة. تخيل GPT-5-Pro يعمل محليا ، في وضع عدم الاتصال ، بجزء بسيط من تكاليف الطاقة اليوم ... 🤯