باحثون يكشفون: مئات العينات المشبوهة كفيلة بالإضرار بأي نموذج ذكاء اصطناعي

هل تعلم أن تسميم الذكاء الاصطناعي أصبح أسهل مما تتخيل؟ دراسة جديدة تكشف أن إضافة بضع مئات من المستندات الخبيثة إلى بيانات التدريب كافية لاختراق أي نموذج ذكاء اصطناعي، بغض النظر عن حجمه.
البيانات: نقطة القوة والضعف في الذكاء الاصطناعي
لا تحتاج هجمات تسميم البيانات إلى آلاف المستندات، بل يكفي 250 مستندًا خبيثًا فقط لزرع “باب خلفي” في النماذج الضخمة. هذا الباب الخلفي يظل خفيًا أثناء الاختبارات، وينشط فقط عند استخدام كلمة سر محددة، مما يسمح للمهاجمين بتجاوز قواعد السلامة أو تسريب البيانات.
كيف أجريت الدراسة؟
قام الباحثون بتدريب 72 نموذجًا مختلفًا، تتراوح أحجامها من 600 مليون إلى 13 مليار معلمة. وأضافوا إلى بيانات التدريس النظيفة ما بين 100 إلى 500 مستند مسموم. كانت النتيجة مذهلة: حتى النماذج الأكبر حجماً فشلت في مقاومة الهجوم بعد رؤية العينات المسمومة.
مثال من الواقع
في فبراير 2025، ظهرت حالة حقيقية حيث تم زرع “باب خلفي” في نموذج DeepSeek من خلال إدخال تعليمات خبيثة في قاعدة بيانات عامة على GitHub. بعد أشهر، استجاب النموذج لهذه التعليمات، مما يؤكد أن مصدر بيانات واحد كافٍ لاختراق النموذج أثناء التدريب.
مخاطر متزايدة وحلول ضرورية
مع انتشار الذكاء الاصطناعي في مجالات حساسة مثل الرعاية الصحية والخدمات المالية، تزداد تكلفة الهجمات الناجحة. الحلول الحالية مثل إعادة التدريب على بيانات نظيفة لا تضمن الحماية الكاملة، مما يبرز الحاجة إلى دفاعات أقوى في جميع مراحل تطوير الذكاء الاصطناعي.
الأسئلة الشائعة
ما المقصود بتسميم الذكاء الاصطناعي؟
هو إدخال بيانات خبيئة إلى مجموعة التدريب الخاصة بالنموذج، مما يسمح للمهاجمين بالتحكم في سلوكه عند استخدام كلمات أو رموز محددة.
كم عدد المستندات المطلوبة لتسميم نموذج ذكاء اصطناعي؟
وفقًا للدراسة،只需要 250 مستندًا خبيثًا فقط يمكن أن تخلق “بابًا خلفيًا” موثوقًا به حتى في النماذج الضخمة.
هل يمكن منع هجمات تسميم البيانات؟
هذا المجال لا يزال قيد التطوير. الحل الأمثل هو استخدام مجموعة من الإجراءات الأمنية في مراحل متعددة: تصفية البيانات قبل التدريب، والكشف عن الأبواب الخلفية بعده.














