أبحاث تقنيةالأخبار

هل تنتهي أزمة ذاكرة الذكاء الاصطناعي؟ ديب سيك تقدم الحل الجديد Engram

أعلنت شركة ديب سيك بالتعاون مع جامعة بكين عن تقنية جديدة أطلقت عليها اسم Engram ، تهدف إلى تقليل الاعتماد على ذاكرة النطاق العريض عالية السرعة (HBM). وقد شهدت أسعار شرائح DRAM قفزة كبيرة خلال عشرة أسابيع فقط، ارتفعت بنحو خمسة أضعاف، مما أدى إلى تحديات اقتصادية كبرى لصناعة الذكاء الاصطناعي.

حل جذري لاختناق الذاكرة

تستخدم النماذج اللغوية الضخمة التقليدية HBM ليس فقط للحسابات المعقدة، بل لاسترجاع المعرفة الأساسية أيضًا. يؤدي

مع الطلب الهائل على العتاد الداعم للذكاء الاصطناعي، أصبح هذا الاختناق أكبر التحديات في الصناعة. لكن Engram تقدم مسارًا مختلفًا . تفصل التقنية تخزين المعرفة عن عمليات الحوسبة، مما يسمح للنموذج بالوصول إلى المعلومات الأساسية دون استنزاف GPU عالية السرعة.

كيف تعمل Engram؟

أوضح الباحثون أن النماذج الحالية تهدر جزءًا كبيرًا من عمقها التسلسلي في مهام بسيطة يمكن استغلالها في مهام تفكير أعلى مستوى.

تعتمد Engram على استرجاع المعرفة باستخدام N-grams مشفرة (Hashed N-grams) ، مما يوفر وصولًا ثابتًا للمعلومات بغض النظر عن السياق الحالي للنموذج. بعد ذلك، يضبط النظام البيانات المسترجعة عبر بوابة ذكية حساسة للسياق لتتوافق مع الحالة الداخلية للنموذج.

وبالتالي ، يستطيع النموذج التعامل بكفاءة أكبر مع السياقات الطويلة، ويستفيد من آليات الجلب المسبق دون عبء حسابي إضافي يُذكر.

نتائج واعدة في الاختبارات

اختبر الباحثون التقنية على نموذج ضخم يحتوي على 27 مليار معامل . أظهرت النتائج تحسنًا ملحوظًا في عدد من المؤشرات القياسية المعتمدة في الصناعة، دون زيادة في العمليات الحسابية (FLOPs) أو حجم النموذج.

كما أظهرت الاختبارات أن إعادة تخصيص نحو 20–25% من ميزانية المعاملات لصالح وحدة Engram يحسن الأداء مقارنة بنماذج Mixture-of-Experts (MoE) التقليدية. وعلاوة على ذلك، حافظ النموذج على مكاسب مستقرة عبر مختلف الأحجام.

تقليل الضغط على HBM وخفض التكاليف

الميزة الأهم في Engram أنها تقلل الحاجة إلى الذاكرة فائقة السرعة من خلال آليات بحث ثابتة للمعلومات غير المتغيرة . يجعل ذلك استهلاك الذاكرة أكثر كفاءة ويخفف الضغط على سلاسل توريد HBM وDRAM.

تتكامل التقنية أيضًا مع حلول منخفضة التكلفة مثل مسرعات الاستدلال من شركة Phison ، التي توسع الذاكرة الإجمالية باستخدام أقراص SSD بدلاً من الاعتماد الكامل على HBM.

وبالإضافة إلى ذلك ، تتوافق Engram مع معايير CXL (Compute Express Link) ، التي تهدف لتجاوز اختناقات ذاكرة GPU في الأحمال الكبيرة، مما يزيد من مرونة استخدام النماذج الكبيرة.

أبعاد جيوسياسية وتأثير عالمي

قد يؤثر الابتكار بشكل خاص في الصين، حيث لا يزال الوصول إلى HBM المتقدم محدودًا مقارنة بمصنّعين كبار مثل سامسونغ، SK Hynix، وميكرون.

وبالتالي ، سيمنح تقليل الاعتماد على HBM شركات الذكاء الاصطناعي الصينية هامشًا أكبر للمنافسة عالميًا.

هل تنتهي أزمة الذاكرة؟

تشير النتائج الأولية إلى أن Engram تفتح الباب لتوسيع قدرات النماذج وزيادة عمق التفكير دون انفجار في متطلبات الذاكرة.
هذا قد يخفف الضغط على سلاسل التوريد، ويهدئ تقلبات أسعار DRAM وDDR5 مستقبلًا.

وعلاوة على ذلك ، تمثل التقنية خطوة مهمة نحو كسر الحلقة المفرغة بين الذكاء الاصطناعي وغلاء العتاد، وقد تكون بداية نهاية ما يُعرف اليوم بـ “أزمة الذاكرة العالمية”.

الخلاصة

تقنية Engram تعكس تقدمًا مهمًا في عالم الذكاء الاصطناعي.

  • تقلل الاعتماد على HBM المكلفة.

  • تحسن أداء النماذج الكبيرة دون زيادة FLOPs أو حجم النموذج.

  • تدعم المنافسة العالمية، خصوصًا في الصين، وتخفض الضغط على سلاسل التوريد.

إذا نجحت في مراحلها التالية، قد تغير Engram قواعد اللعبة في تصميم النماذج الضخمة وعمليات الذكاء الاصطناعي المستقبلية.

اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى