باحثو جوجل يكشفون جميع طرق اختراق القراصنة للوكالات الذكية والسيطرة عليها

نشر باحثو جوجل ديب مايند ما قد يكون أكثر خريطة شاملة حتى الآن لمشكلة لا يفكر فيها معظم الناس: تحويل الإنترنت نفسه إلى سلاح ضد وكلاء الذكاء الاصطناعي المستقلين. تحدد الورقة البحثية، بعنوان “فخاخ وكلاء الذكاء الاصطناعي”، ست فئات من المحتوى المعادي المصمم خصيصًا للتلاعب بهذه الوكلاء أو خداعها أو السيطرة عليها أثناء تصفحها للويب وقراءتها واتخاذ الإجراءات.
لماذا هذا مهم الآن؟
تتسابق شركات الذكاء الاصطناعي لنشر وكلاء يمكنهم حجز الرحلات وإدارة البريد الإلكتروني وإجراء المعاملات المالية وكتابة التعليمات البرمجية بشكل مستقل. المجرمون يستخدمون الذكاء الاصطناعي بالفعل بشكل هجومي، كما بدأ قراصنة مدعومون من دول في نشر وكلاء ذكاء اصطناعي للهجمات الإلكترونية على نطاق واسع. وقد اعترفت شركة أوبن أيه آي في ديسمبر 2025 أن الثغرة الأساسية التي تستغلها هذه الفخاخ – وهي حقن الأوامر – “من غير المرجح أن يتم ‘حلها’ بالكامل أبدًا”.
أنواع فخاخ الذكاء الاصطناعي الستة
لا يهاجم الباحثون النماذج نفسها، بل يرسمون خريطة للبيئة التي تعمل فيها الوكلاء. إليك شرح مبسط للفخاخ الستة:
- فخاخ حقن المحتوى: تستغل الفجوة بين ما يراه الإنسان على صفحة الويب وما يقرأه الوكيل. يمكن للمطور إخفاء نص في تعليقات HTML أو عناصر غير مرئية. يقرأ الوكيل التعليمات المخفية بينما أنت لا تراها. في بعض الحالات، تكتشف المواقع إذا كان الزائر وكيل ذكاء اصطناعي وتعرض له صفحة مختلفة تمامًا تحتوي على أوامر خفية.
- فخاخ التلاعب الدلالي: وهي من أسهل الطرق. حيث تؤثر العبارات مثل “معيار الصناعة” أو “موثوق من الخبراء” على قرار الوكيل لصالح المهاجم. ويمكن أيضًا تضليل الوكيل بتقديم أوامر ضارة على أنها “أمثلة بحثية” أو “تدريبية” فقط.
- فخاخ الحالة المعرفية: هنا يستهدف المهاجمون الذاكرة طويلة المدى للوكيل. إذا تمكن المهاجم من زرع معلومات مزيفة في قاعدة المعرفة التي يستعلم منها الوكيل، فسيعاملها الوكيل كحقائق مؤكدة.
- فخاخ التحكم السلوكي: تهدف للسيطرة المباشرة على أفعال الوكيل. يمكن لأوامر اختراق مدمجة في موقع ويب عادي أن تتجاوز ضوابط السلامة. كما يمكن إجبار الوكيل على العثور على ملفات خاصة وإرسالها إلى عنوان يتحكم فيه المهاجم.
- الفخاخ النظامية: لا تستهدف وكيلاً واحداً، بل سلوك العديد من الوكلاء التي تعمل في وقت واحد. على سبيل المثال، تقرير مالي مزيف واحد قد يتسبب في بيع آلاف وكلاء التداول بالذكاء الاصطناعي لاستثماراتهم في وقت متزامن، مما يخلق أزمة.
- فخاخ التدخل البشري: تستهدف الشخص الذي يراجع مخرجات الوكيل. تصمم هذه الفخاخ مخرجات تبدو تقنيًا ومقنعة لغير الخبير، مما يجعله يوافق على إجراءات خطيرة دون أن يدري.
كيف يمكن الحماية من هذه الفخاخ؟
يقدم الباحثون خطة دفاع على ثلاث جبهات:
- الحلول التقنية: مثل تدريب النماذج على التعرف على الهجمات، وأدوات مسح المحتوى لاكتشاف المدخلات المشبوهة قبل وصولها للوكيل، ومراقبة المخرجات لاكتشاف السلوك غير الطبيعي.
- معايير النظام البيئي: مثل معايير ويب تسمح للمواقع بتحديد المحتوى المخصص للذكاء الاصطناعي، وأنظمة تقييم سمعة المواقع.
- الإطار القانوني: يجب سد “فجوة المساءلة”: من المسؤول إذا نفذ وكيل مخترق معاملة مالية غير قانونية؟ هل هو مشغل الوكيل، أم مقدم النموذج، أم الموقع الذي استضاف الفخ؟
الأسئلة الشائعة (FAQ)
- ما هي فخاخ وكلاء الذكاء الاصطناعي؟
هي محتوى ضار مصمم على الإنترنت لخداع وكلاء الذكاء الاصطناعي أو التلاعب بها أو السيطرة عليها أثناء قيامها بمهام مثل التصفح أو إجراء المعاملات. - ما هي أخطر أنواع هذه الفخاخ؟
تعتبر فخاخ التحكم السلوكي خطيرة جدًا لأنها يمكن أن تجبر الوكيل على تسريب كلمات المرور والملفات الحساسة. كما أن الفخاخ النظامية تشكل تهديدًا واسع النطاق قد يؤثر على استقرار الأسواق المالية على سبيل المثال. - هل يمكن حل هذه المشكلة بشكل كامل؟
تشير الأبحاث إلى أن الثغرة الأساسية (حقن الأوامر) قد لا تُحل بشكل كامل أبدًا. لذلك، التركيز ينصب على بناء دفاعات متعددة الطبقات تشمل تقنيات أفضل ومعايير ويب جديدة وقوانين واضحة للمساءلة.












