OpenAI تقدم للاتحاد الأوروبي نموذج ذكاء اصطناعي متقدم في الأمن السيبراني

تخوض شركة OpenAI محادثات نشطة مع المفوضية الأوروبية لمنحها إمكانية الوصول إلى أحدث نموذج ذكاء اصطناعي متخصص في الأمن السيبراني، وهو نموذج قادر على اكتشاف الثغرات البرمجية. هذه الخطوة تجعل شركة “تشات جي بي تي” أول مختبر ذكاء اصطناعي كبير يفتح قدراته السيبرانية أمام الجهات التنظيمية في الاتحاد الأوروبي، التي تكافح منذ أسابيع لتقييم المخاطر الأمنية التي تشكلها أنظمة الذكاء الاصطناعي المتطورة.
السباق مع الزمن
توقيت هذه الخطوة له مغزاه الكبير. شركة “أنثروبيك”، المنافس الرئيسي لـ OpenAI في سباق الذكاء الاصطناعي الذي يركز على السلامة، لم تمنح الاتحاد الأوروبي بعد الإذن بالوصول إلى نموذج الأمن السيبراني الخاص بها، والذي يحمل اسم “ميثوس”.
ماذا يفعل النموذج بالضبط؟
نموذج الأمن السيبراني لشركة OpenAI، الذي يُشار إليه باسم “GPT-5.5-Cyber”، صُمم خصيصًا لتحديد عيوب البرمجيات ومحاكاة عمليات الاختراق. اعتبارًا من الأول من مايو، أكمل النموذج اختراقًا كاملاً لشبكة شركة محاكاة، مما جعله ثاني نظام ذكاء اصطناعي يحقق هذا الإنجاز. الأول كان نموذج “ميثوس” من أنثروبيك. يبدو الآن أن النموذجين متقاربان في قدرتهما على اختراق بيئات الشركات المحاكاة.
بموجب قانون الذكاء الاصطناعي الأوروبي، تحتاج الجهات التنظيمية إلى تقييم المخاطر السيبرانية التي تقدمها أنظمة الذكاء الاصطناعي المتقدمة. من خلال منح الوصول المباشر، تسمح OpenAI عمليًا للمفوضية باختبار أدواتها السيبرانية الأكثر تقدمًا.
لماذا يجب على عالم العملات الرقمية الانتباه؟
تجاوزت الخسائر المالية الناجمة عن اختراقات العملات الرقمية 1.5 مليار دولار في عام 2025. إذا كانت نماذج الذكاء الاصطناعي تستطيع محاكاة اختراق شبكات الشركات، فإنها يمكن أيضًا توجيهها نحو العقود الذكية، وبروتوكولات الجسور، ومنصات التمويل اللامركزي “DeFi”. شهدت الأشهر الأخيرة تقارير عن عمليات احتيال تستغل وكلاء الذكاء الاصطناعي لسرقة العملات الرقمية. يتطور مشهد التهديدات في الوقت الفعلي، حيث يستخدم المهاجمون أدوات الذكاء الاصطناعي لأتمتة التصيد الاحتيالي، والهندسة الاجتماعية، واكتشاف الثغرات. شهدت العملات الرقمية المرتبطة بالذكاء الاصطناعي ارتفاعًا بنسبة 5% في أسعارها بعد الإعلان عن هذه التطورات في مجال الأمن السيبراني للذكاء الاصطناعي.
لعبة الشطرنج التنظيمية
مبادرة OpenAI تجاه الاتحاد الأوروبي تتعلق بالاستراتيجية بقدر ما تتعلق بالأمن. يمثل قانون الذكاء الاصطناعي الإطار التنظيمي الأكثر شمولاً للذكاء الاصطناعي في العالم. من خلال التطوع بالوصول إلى نموذجها السيبراني الأكثر قدرة، تراهن OpenAI بشكل محسوب: تحصل الشركة على فرصة لإظهار الشفافية وبناء حسن النية مع الجهات التنظيمية، مع كسب نفوذ حول كيفية تصنيف الاتحاد الأوروبي وتنظيمه في النهاية لأنظمة الذكاء الاصطناعي ذات القدرات السيبرانية الهجومية. بالنسبة لشركة أنثروبيك، إذا انتهى الأمر بالاتحاد الأوروبي إلى كتابة إرشادات الأمن السيبراني للذكاء الاصطناعي بناءً على تجربته مع نموذج OpenAI، فإن أنثروبيك تخاطر بأن يتم تقييمها وفق إطار عمل لم يكن لها يد في تشكيله.
مبلغ 1.5 مليار دولار المفقود بسبب اختراقات العملات الرقمية في 2025 هو خط الأساس. يجب على قطاع التمويل اللامركزي “DeFi” بشكل خاص أن يراقب عن كثب، خاصة أن مشاريع مثل Fetch.ai بدأت بالفعل في دمج تقنيات الذكاء الاصطناعي لإجراء عمليات تدقيق أمنية تلقائية.
الأسئلة الشائعة (FAQ)
- س: لماذا تمنح OpenAI الاتحاد الأوروبي حق الوصول إلى نموذج الأمن السيبراني الخاص بها؟
ج: تريد OpenAI إظهار الشفافية وبناء الثقة مع الجهات التنظيمية، وفي نفس الوقت التأثير على القوانين المستقبلية التي ستنظم الذكاء الاصطناعي في أوروبا، مما يضعها في موقع قوي أمام منافسيها. - س: كيف يؤثر هذا التطور على عالم العملات الرقمية؟
ج: لأن نفس تقنيات الذكاء الاصطناعي التي تكتشف ثغرات الشركات يمكن استخدامها لاختراق العقود الذكية ومنصات التمويل اللامركزي. هذا الأمر مهم جدًا لأن خسائر اختراقات العملات الرقمية تجاوزت 1.5 مليار دولار في 2025. - س: ما الفرق بين نموذج OpenAI ونموذج منافستها أنثروبيك؟
ج: كلا النموذجين متقاربان في قدرتهما على اختراق الشبكات المحاكاة. لكن الفرق الكبير هو أن OpenAI عرضت نموذجها على المنظمين الأوروبيين طواعية، بينما لم تفعل أنثروبيك ذلك بعد، مما قد يمنح OpenAI ميزة في تشكيل القوانين الجديدة.












