قانوني

“سينثيا لوميس تقدم مشروع قانون للذكاء الاصطناعي يلزم الشركات بالإفصاح عن التقنيات: تعرف على التفاصيل الآن!”

قدمت السناتور سينثيا لوميس (جمهورية-وايومنغ) مشروع قانون “الابتكار المسؤول والخبرة الآمنة” (RISE) لعام 2025، وهو مقترح تشريعي يهدف إلى توضيح أطر المسؤولية القانونية للذكاء الاصطناعي (AI) المستخدم من قبل المحترفين.

تفاصيل مشروع القانون

يهدف القانون إلى تعزيز الشفافية من مطوري الذكاء الاصطناعي دون إلزامهم بجعل النماذج مفتوحة المصدر. وأوضحت لوميس في بيان صحفي أن القانون سيجعل المحترفين مثل الأطباء والمحامين والمهندسين والمستشارين الماليين مسؤولين قانونيًا عن النصائح التي يقدمونها، حتى لو كانت مستندة إلى أنظمة الذكاء الاصطناعي.

حماية المطورين بشروط

يمكن لمطوري الذكاء الاصطناعي حماية أنفسهم من المسؤولية المدنية في حال حدوث أخطاء فقط إذا قاموا بنشر “بطاقات النموذج” (Model Cards) علنًا. تُعرّف هذه البطاقات بأنها وثائق تقنية تفصيلية تكشف عن مصادر بيانات التدريب، حالات الاستخدام المقصودة، مقاييس الأداء، القيود المعروفة، وأوضاع الفشل المحتملة للذكاء الاصطناعي. كل ذلك لمساعدة المحترفين في تقييم مدى ملاءمة الأداة لعملهم.

"سينثيا لوميس تقدم مشروع قانون للذكاء الاصطناعي يلزم الشركات بالإفصاح عن التقنيات: تعرف على التفاصيل الآن!"

وقالت لوميس: “وايومنغ تقدر الابتكار والمساءلة؛ مشروع RISE يضع معايير واضحة تشجع تطوير ذكاء اصطناعي أكثر أمانًا مع الحفاظ على استقلالية المحترفين.” وأضافت: “هذا التشريع لا يوفر حصانة مطلقة للذكاء الاصطناعي.”

حدود الحماية

الحماية الممنوحة بموجب هذا القانون لها حدود واضحة. فلا تشمل المطورين في حالات الإهمال، سوء النية، الاحتيال، التضليل المتعمد، أو عند تجاوز نطاق الاستخدام المهني المحدد.

مسؤولية مستمرة

يفرض القانون أيضًا واجب المساءلة المستمرة على المطورين. يجب تحديث وثائق الذكاء الاصطناعي والمواصفات الفنية خلال 30 يومًا من إطلاق إصدارات جديدة أو اكتشاف أوضاع فشل كبيرة، مما يعزز التزام الشفافية المستمرة.

لا إلزامية المصدر المفتوح

لا يلزم القانون الحالي المطورين بجعل نماذج الذكاء الاصطناعي مفتوحة المصدر بالكامل. يمكن حجب المعلومات الخاصة، ولكن فقط إذا لم تكن مرتبطة بالسلامة، ويجب تقديم مبرر كتابي لكل إغفال يستند إلى أسرار تجارية.

تحذيرات من الذكاء الاصطناعي المغلق

في مقابلة سابقة مع كوين ديسك، حذر سيمون كيم، الرئيس التنفيذي لشركة Hashed (إحدى كبرى صناديق الاستثمار في كوريا)، من مخاطر الذكاء الاصطناعي المركزي المغلق المصدر الذي يشبه “الصندوق الأسود”. وقال كيم: “OpenAI ليست مفتوحة، وهي مسيطر عليها من قبل عدد قليل جدًا، مما يجعلها خطيرة. إنشاء نموذج أساسي مغلق المصدر يشبه صنع ‘إله’ لا نعرف كيف يعمل.”

الأسئلة الشائعة

  • ما هو مشروع قانون RISE؟
    مشروع قانون يهدف إلى توضيح مسؤولية المحترفين عند استخدام الذكاء الاصطناعي، مع تعزيز الشفافية من المطورين.
  • هل يلزم القانون المطورين بجعل الذكاء الاصطناعي مفتوح المصدر؟
    لا، لكنه يتطلب نشر وثائق تقنية مفصلة (Model Cards) لضمان الشفافية.
  • ما هي حدود الحماية القانونية للمطورين؟
    لا تشمل الحماية حالات الإهمال أو الاحتيال أو التجاوزات خارج النطاق المهني المحدد.

نبض السوق

محلل مالي يتمتع بقدرة فريدة على قراءة نبض السوق وتقديم رؤى قيمة للمستثمرين.
زر الذهاب إلى الأعلى