منظمة “الأمريكيون من أجل الابتكار المسؤول” تطالب الولايات المتحدة بفرض مراجعات سلامة الذكاء الاصطناعي على العقود الحكومية

تدعو منظمة “أمريكان فور رسبونسبل إنوفيشن” (ARI)، وهي منظمة غير ربحية تركز على سياسات الذكاء الاصطناعي، إدارة ترامب إلى فرض مراجعات أمان إلزامية على أي مختبر ذكاء اصطناعي يرغب في الحصول على عقود حكومية أمريكية. هذا التوصية، التي صدرت في 11 مايو 2026، تستهدف المطورين الذين يبنون ما يُعرف بنماذج “الحدود” (Frontier Models)، وهي أقوى وأخطر أنظمة الذكاء الاصطناعي على الإطلاق.
تتمحور خطة ARI حول تقييمات أمان منظمة تعمل كبوابة للحصول على العقود الفيدرالية. أي مختبر ذكاء اصطناعي يبني نماذج حدودية سيكون مضطراً لإثبات أن أنظمته تم فحصها لاحتمالية إساءة استخدامها قبل أن يُسمح له بالحصول على أي عقد حكومي.
في 6 أبريل 2026، حذرت المنظمة وكالة الخدمات العامة من المخاطر المخفية في عبارات “الاستخدام القانوني لأي غرض” الغامضة الموجودة في لوائح الشراء الحالية للذكاء الاصطناعي. وجادلت ARI بأن هذه العبارات تمنح أنظمة الذكاء الاصطناعي شيكاً على بياض للعمل بدون حواجز حماية حقيقية بمجرد دخولها الأنظمة الحكومية.
تشير ARI إلى أن معدل نمو الحوسبة في الذكاء الاصطناعي يبلغ 4.2 أضعاف سنوياً منذ عام 2010، وهو مسار يشير إلى أن قدرات النماذج الحدودية تتوسع بشكل أسرع بكثير من قدرة الحكومة على تقييمها. وفي الوقت نفسه، لا يثق 82% من الجمهور في قادة التكنولوجيا لتنظيم الذكاء الاصطناعي بأنفسهم.
في 24 مارس 2026، أعلنت هيئة تداول السلع والعقود الآجلة (CFTC) عن إنشاء فريق عمل يهدف تحديداً إلى تنظيم دور الذكاء الاصطناعي في الأصول الرقمية. تعتبر ARI جديدة نسبياً في مجال تنظيم الذكاء الاصطناعي، ولم تربط المنظمة توصياتها بشكل صريح بالعملات المشفرة أو الأصول الرقمية.
إذا أصبحت مراجعات الأمان الإلزامية حقيقة واقعة، فإن التأثير الأكثر فورية سيكون على شركات الذكاء الاصطناعي التي تستمد جزءاً كبيراً من إيراداتها من العقود الحكومية. ستزيد تكاليف الامتثال، وستمتد الجداول الزمنية للحصول على العقود. قد تجد شركات الذكاء الاصطناعي الناشئة الصغيرة، التي تفتقر غالباً إلى الموارد اللازمة لعمليات التدقيق الأمني الشاملة، نفسها مستبعدة تماماً من السوق الفيدرالية.
فريق عمل CFTC المعني بالذكاء الاصطناعي والأصول الرقمية يشير إلى أن الجهات التنظيمية تفكر بالفعل في كيفية تقاطع حوكمة الذكاء الاصطناعي مع الأنظمة القائمة على البلوكتشين. يجب على المستثمرين في الرموز والمشاريع المرتبطة بالذكاء الاصطناعي الانتباه إلى كيفية تلقي هذه المقترحات من قبل الإدارة الأمريكية والكونغرس، حيث أن تفويضات السلامة التي تكتسب زخماً سياسياً ستجبر السوق على تقدير تكاليف امتثال أعلى عبر قطاع الذكاء الاصطناعي بأكمله، بما في ذلك الشركات التي تعمل على تقاطع الذكاء الاصطناعي والعملات المشفرة.
أسئلة شائعة
- س: ما الذي تطلبه منظمة ARI بالضبط فيما يخص عقود الذكاء الاصطناعي الحكومية؟
ج: تطلب المنظمة تطبيق مراجعات أمان إلزامية لأي مختبر ذكاء اصطناعي يريد الفوز بعقود حكومية، بحيث لا يحصل المختبر على العقد إلا بعد إثبات فحص أنظمته من أي احتمال لإساءة الاستخدام. - س: كيف سيؤثر هذا الاقتراح على شركات الذكاء الاصطناعي والعملات المشفرة؟
ج: سيرفع تكاليف الامتثال ويطيل وقت الحصول على العقود، مما قد يستبعد الشركات الناشئة الصغيرة. كما أن المستثمرين في مشاريع الذكاء الاصطناعي والعملات الرقمية يجب أن يراقبوا لأن أي تفويضات أمان ستزيد التكاليف على الشركات العاملة في هذا المجال. - س: لماذا تعتبر مراجعات الأمان مهمة الآن من وجهة نظر ARI؟
ج: لأن قدرات الذكاء الاصطناعي الحدودي تتوسع بسرعة 4.2x سنوياً، أسرع من قدرة الحكومة على تقييمها، بينما لا يثق 82% من الجمهور بقادة التكنولوجيا لتنظيم أنفسهم، مما يستدعي رقابة حكومية صارمة.












