تحذير جوجل: قراصنة مدعومون من الدول يستخدمون أدوات الذكاء الاصطناعي الشهيرة بما فيها جيميني

يعيد فريق “جوجل” للاستخبارات الأمنية (GTIG) دق ناقوس الخطر بشأن مخاطر الذكاء الاصطناعي، حيث نشر تقريره الأخير حول كيفية استخدام القراصنة المدعومين من دول خطيرة للذكاء الاصطناعي في أنشطتهم الضارة.
كيف يستخدم القراصنة الذكاء الاصطناعي؟
رصد الفريق زيادة في محاولات سرقة نماذج الذكاء الاصطناعي، وهي طريقة لسرقة الملكية الفكرية يقوم فيها المهاجم باستجواب نموذج ذكاء اصطناعي بشكل متكرر لمحاولة فهم آلية عمله الداخلية واستنساخه.
لكن الخطر الأكبر الذي يحذر منه التقرير هو استخدام قراصنة مدعومين من حكومات لنماذج الذكاء الاصطناعي الكبيرة (مثل ChatGPT و Gemini) في أعمال البحث التقني، واستهداف الضحايا، وإنشاء رسائل تصيد احتيالي (Phishing) متطورة وسريعة.
ويركز التقرير على مخاوف من أنشطة قرصنة مرتبطة بدول مثل كوريا الشمالية، إيران، الصين، وروسيا.
دور “جيميني” في هجمات التصيد
يستخدم هؤلاء المهاجمون أدوات الذكاء الاصطناعي، مثل “جيميني” التابع لجوجل نفسه، في جمع المعلومات الاستخباراتية المفتوحة على نطاق واسع، وإنشاء عمليات احتيال تصيد شديدة التخصيص.
ويوضح التقرير: “هذا النشاط يؤكد التحول نحو تمكين التصيد الاحتيالي المعزز بالذكاء الاصطناعي، حيث يمكن لسرعة ودقة النماذج اللغوية الكبيرة تخطي الجهد اليدوي الذي كان مطلوبًا تقليديًا لدراسة الضحايا”.
ففي السابق، كان المستهدفون يعتمدون على مؤشرات مثل الأخطاء النحوية أو السياق الثقافي الضعيف لاكتشاف محاولات التصيد. أما الآن، فيستخدم هؤلاء المهاجمون الذكاء الاصطناعي لإنشاء رسائل مخصصة تحاكي تمامًا النبرة المهنية للشركة المستهدفة.
على سبيل المثال، إذا تم إعطاء “جيميني” السيرة الذاتية لشخص مستهدف، يمكنه إنشاء شخصية وهمية مقنعة وابتكار سيناريو يجذب انتباهه بفعالية. كما يمكن للذكاء الاصطناعي المساعدة في الترجمة الدقيقة للغات المحلية.
الذكاء الاصطناعي في كتابة البرمجيات الخبيثة
مع تطور قدرة الذكاء الاصطناعي على كتابة الأكواد البرمجية، فُتح الباب أمام استخدامها لأغراض ضارة. حيث يستخدم المهاجمون هذه الوظائف لاستكشاف الأخطاء وإصلاحها، ولتطوير أدوات قرصنة خبيثة.
كما يحذر التقرير من اهتمام متزايد بتجربة “الذكاء الاصطناعي الوكيل” (Agentic AI)، وهو شكل من الذكاء الاصطناعي يمكنه العمل بدرجة من الاستقلالية لدعم مهام مثل تطوير البرامج الضارة وأتمتتها.
كيف تحارب “جوجل” هذه المخاطر؟
تذكر “جوجل” جهودها لمكافحة هذه المشكلة من خلال عدة إجراءات، منها:
- نشر تقارير استخباراتية عن التهديدات عدة مرات في السنة.
- وجود فريق دائم للبحث عن التهديدات الأمنية.
- تعزيز نموذج “جيميني” ليكون مقاوماً للاستخدام في الأغراض الضارة.
- محاولة فريق “جوجل ديب مايند” تحديد هذه التهديدات وإزالة الوظائف الخبيثة قبل أن تشكل خطراً.
ويخلص التقرير إلى أنه بينما زاد استخدام الذكاء الاصطناعي في عالم التهديدات الإلكترونية، إلا أنه لا توجد حتى الآن قدرات اختراقية جديدة. بل هناك فقط زيادة في استخدام الأدوات المتاحة والمخاطر المرتبطة بها.
الأسئلة الشائعة
س: ما الخطر الرئيسي للذكاء الاصطناعي الذي حذرت منه “جوجل”؟
ج: الخطر الرئيسي هو استخدام قراصنة مدعومين من حكومات لنماذج الذكاء الاصطناعي الكبيرة (مثل جيميني) لإنشاء رسائل تصيد احتيالي سريعة ومتطورة ومخصصة للغاية للضحايا.
س: كيف يستخدم المهاجمون أدوات مثل “جيميني”؟
ج: يستخدمونها لجمع معلومات عامة عن الضحايا على نطاق واسع، وكتابة رسائل احتيالية تبدو حقيقية ومهنية، والترجمة الدقيقة، وحتى المساعدة في كتابة أكواد برمجيات ضارة.
س: ما الذي تفعله “جوجل” للتصدي لهذه التهديدات؟
ج: تعمل “جوجل” على نشر تقارير منتظمة، ولديها فريق لمتابعة التهديدات، وتحاول تحسين نموذج “جيميني” لمنع استخدامه في الأغراض الضارة، وتحديد الوظائف الخبيثة وإزالتها مبكراً.












