“ثغرة ElizaOS تكشف كيف يمكن خداع الذكاء الاصطناعي لخسارة الملايين – تعرف على التفاصيل الآن!”

كشفت دراسة حديثة أجراها باحثون من جامعة برينستون ومؤسسة “Sentient Foundation” عن ثغرات خطيرة في وكلاء الذكاء الاصطناعي المتخصصة في التعامل مع العملات الرقمية، حيث يمكن اختراق ذاكرتهم لنقل أموال المستخدمين إلى جهات ضارة دون اكتشاف الهجوم.
إليزا أو إس: إطار العمل الأكثر عرضة للاختراق
ركزت الدراسة على نظام “ElizaOS”، وهو إطار عمل مفتوح المصدر لإنشاء وكلاء الذكاء الاصطناعي التي تتفاعل مع سلاسل الكتل (Blockchain). وأوضح “أثارف باتلان”، طالب الدراسات العليا في جامعة برينستون والمشارك في البحث، أن شعبية النظام جعلته هدفًا مثاليًا للدراسة.
وقال باتلان: “يتمتع ElizaOS بشعبية كبيرة في مجال الويب 3، حيث حصل على حوالي 15 ألف نجمة على GitHub، مما يعني أنه مستخدم على نطاق واسع”. وأضاف: “وجود ثغرات في نظام شائع كهذا دفعنا لاستكشاف الأمر بعمق”.
كيف يتم تنفيذ الهجوم؟
تعتمد هذه الهجمات على تقنية تسمى “حقن الذاكرة”، حيث يتم إدخال تعليمات خبيثة في الذاكرة الدائمة للوكيل، مما يجعله يتصرف بناءً على معلومات مزيفة في المستقبل. وأشارت الدراسة إلى أن الوكلاء التي تعتمد على تحليل مشاعر وسائل التواصل الاجتماعي معرضة بشكل خاص لهذا النوع من الهجمات.
- يقوم المهاجمون بإنشاء حسابات وهمية على منصات مثل “X” أو “Discord” للتأثير على آراء السوق (هجوم سيبيل).
- ينشرون محتوى منسقًا لخداع الوكيل بشراء عملة رقمية بسعر مرتفع مصطنعًا.
- بعد ذلك، يبيع المهاجمون حصتهم مما يتسبب في انهيار قيمة العملة.
إجراءات الوقاية المطلوبة
أكد باتلان أن مواجهة هجمات حقن الذاكرة تتطلب تحسينات على مستويات متعددة:
- تعزيز أنظمة الذاكرة للوكلاء.
- تحسين نماذج اللغة للتمييز بين المحتوى الضار ونوايا المستخدم الحقيقية.
- تطوير آليات أقوى للتحكم في الوصول إلى الذاكرة.
كما طور الفريق البحثي أداة “CrAIBench” لتقييم مدى مقاومة وكلاء الذكاء الاصطناعي للتلاعب، مع التركيز على استراتيجيات الهجوم والدفاع.
الأسئلة الشائعة
ما هو هجوم حقن الذاكرة على وكلاء الذكاء الاصطناعي؟
هو هجوم يتم فيه إدخال بيانات خبيثة في ذاكرة الوكيل، مما يجعله يتصرف بناءً على معلومات مزيفة في المستقبل دون أن يلاحظ أي شيء غير عادي.
لماذا يعتبر ElizaOS هدفًا رئيسيًا لهذه الهجمات؟
بسبب شعبيته الواسعة في مجال الويب 3 واعتماده على العديد من الإضافات التي توسع من نقاط الضعف المحتملة.
كيف يمكن حماية وكلاء الذكاء الاصطناعي من هذه الهجمات؟
يتطلب الأمر تحسين أنظمة الذاكرة، ونماذج اللغة، وآليات الوصول إلى الذاكرة لضمان تمييز أفضل بين التعليمات الشرعية والضارة.














