“سينثيا لوميس تقدم مشروع قانون للذكاء الاصطناعي يلزم الشركات بالإفصاح عن التفاصيل التقنية – تعرف على التفاصيل الآن!”

قدمت السيناتور سينثيا لوميس (عن ولاية وايومنغ) مشروع قانون “الابتكار المسؤول والخبرة الآمنة” (RISE) لعام 2025، وهو مقترح تشريعي يهدف إلى توضيح أطر المسؤولية القانونية للذكاء الاصطناعي (AI) المستخدم من قبل المحترفين.
تفاصيل مشروع القانون
يهدف القانون إلى تعزيز الشفافية من مطوري الذكاء الاصطناعي دون إلزامهم بجعل النماذج مفتوحة المصدر. وأوضحت لوميس في بيان صحفي أن القانون سيجعل المحترفين مثل الأطباء والمحامين والمهندسين والمستشارين الماليين مسؤولين قانونيًا عن النصائح التي يقدمونها، حتى لو كانت مستندة إلى أنظمة الذكاء الاصطناعي.
حماية المطورين بشروط
يمكن لمطوري الذكاء الاصطناعي حماية أنفسهم من المسؤولية المدنية في حال حدوث أخطاء فقط إذا قاموا بنشر “بطاقات النماذج”، وهي وثائق تقنية تفصيلية تكشف عن مصادر بيانات التدريب، حالات الاستخدام المقصودة، مقاييس الأداء، القيود المعروفة، وأوضاع الفشل المحتملة. وتهدف هذه الخطوة إلى مساعدة المحترفين في تقييم مدى ملاءمة الأداة لعملهم.
توازن بين الابتكار والمساءلة
قالت لوميس: “تقدّر وايومنغ كلًا من الابتكار والمساءلة؛ لذا يخلق قانون RISE معايير واضحة تشجع تطوير ذكاء اصطناعي أكثر أمانًا مع الحفاظ على استقلالية المحترفين.” وأضافت: “هذا التشريع لا يوفر حصانة مطلقة للذكاء الاصطناعي.”
حدود الحماية القانونية
الحماية الممنوحة بموجب هذا القانون لها حدود واضحة. فلا تشمل الحالات التي تتضمن إهمالًا أو سوء سلوك متعمد أو احتيالًا أو تحريفًا متعمدًا للوقائع، أو عندما تتجاوز الإجراءات النطاق المحدد للاستخدام المهني.
مسؤولية مستمرة على المطورين
يفرض القانون على المطورين التزامًا بالمساءلة المستمرة، حيث يجب تحديث الوثائق والمواصفات خلال 30 يومًا من نشر إصدارات جديدة أو اكتشاف أوضاع فشل كبيرة، مما يعزز التزامهم بالشفافية المستمرة.
لا إلزامية المصدر المفتوح
لا يلزم القانون الحالي مطوري الذكاء الاصطناعي بجعل نماذجهم مفتوحة المصدر بالكامل. يمكن حجب المعلومات الخاصة، ولكن فقط إذا لم تكن مرتبطة بالسلامة، مع تقديم تبرير كتابي لكل إغفال يستند إلى استثناءات الأسرار التجارية.
تحذيرات من الذكاء الاصطناعي المغلق
في مقابلة سابقة مع كوين ديسك، حذر سيمون كيم، الرئيس التنفيذي لشركة Hashed (إحدى كبرى صناديق رأس المال الاستثماري في كوريا)، من مخاطر الذكاء الاصطناعي المركزي المغلق المصدر الذي يشبه “الصندوق الأسود”. وقال كيم: “أوبن إيه آي ليست مفتوحة، وهي تتحكم بها مجموعة صغيرة، مما يجعلها خطيرة. إنشاء نموذج أساسي مغلق المصدر يشبه صنع ‘إله’ لا نعرف كيف يعمل.”
الأسئلة الشائعة
- ما هو قانون RISE؟
هو مشروع قانون يهدف إلى تنظيم مسؤولية المحترفين عند استخدام الذكاء الاصطناعي، مع ضمان شفافية المطورين. - هل يلزم القانون المطورين بجعل الذكاء الاصطناعي مفتوح المصدر؟
لا، لكنه يتطلب نشر وثائق تقنية مفصلة (بطاقات النماذج) لضمان الشفافية. - ما هي حدود الحماية القانونية للمطورين؟
لا تشمل الحماية حالات الإهمال أو الاحتيال أو الاستخدام خارج النطاق المهني المحدد.














