قانون “GUARD” يهدد بتقويض حقوق التعديل الأول، يحذر جون كولمان

مشروع قانون في مجلس الشيوخ يهدف لحماية الأطفال من روبوتات الدردشة بالذكاء الاصطناعي يتعرض لانتقادات حادة من دعاة الحريات المدنية، الذين يقولون إنه سيفعل شيئًا أكثر خطورة: بناء بنية تحتية للمراقبة عبر الإنترنت مرتبطة بالهوية، مع تقييد الوصول إلى الكلام المحمي دستوريًا.
ماذا يتطلب قانون “GUARD ACT” بالضبط؟
مشروع القانون، الذي قدمه السيناتور جوش هاولي، يفرض التحقق من العمر للوصول إلى “رفقاء الذكاء الاصطناعي”، وهم الأنظمة المصممة لمحادثات تفاعلية تشبه البشر. ويُمنع المستخدمون تحت سن 18 عامًا تمامًا من استخدامها.
آلية القانون الأساسية هي التحقق الإجباري من العمر، ولكن ليس النوع الذي تضع فيه علامة صح confirming أنك فوق 18 عامًا. الإقرار الذاتي ممنوع صراحةً. بدلاً من ذلك، يطلب القانون بيانات تعريف حقيقية من العالم الواقعي. فكر في السجلات المالية، أو وثائق حكومية رسمية، أو نقاط بيانات أخرى مرتبطة بالهوية. بمعنى أدق: للتحدث مع ذكاء اصطناعي، ستحتاج إلى إثبات هويتك الحقيقية، مما يخلق سجلاً يربط هويتك بنشاطك على الإنترنت.
النسخة الأصلية من القانون كانت تشمل تقريبًا كل روبوتات الدردشة بالذكاء الاصطناعي. بعد ضغوط من منظمات الحقوق المدنية، ضيق المشرعون النطاق ليشمل فقط “رفقاء الذكاء الاصطناعي”، وهي فئة أكثر تحديدًا. لكن متطلبات التحقق من العمر بقيت صارمة، والمخاوف الأساسية حول الخصوصية وحرية التعبير لم تختفِ مع هذا التعريف الأضيق.
تحديد ما يعتبر “رفيق ذكاء اصطناعي” مقابل روبوت دردشة عادي ليس مهمة سهلة. الخط الفاصل بين روبوت خدمة العملاء، ومعلم ذكاء اصطناعي تعليمي، ورفيق محادثة يصبح ضبابيًا بسرعة. هذا الغموض يخلق خطرًا على المطورين الذين قد يبالغون في الامتثال لتجنب المسؤولية، مما يحد فعليًا من الوصول إلى أدوات لم تكن أبدًا هدف القانون الأصلي.
مشكلة التعديل الأول للدستور
القانون لا يضيف فقط صعوبة في الوصول، بل يخلق حظرًا كاملاً لفئة عمرية كاملة. يرى المنتقدون أن هذا يتجاوز بكثير ما تسمح به الأطر القانونية الحالية، حتى للمحتوى الذي قد يُعتبر ضارًا بالقاصرين.
مؤسسة الحدود الإلكترونية (EFF) كانت صريحة بشكل خاص، واصفة القانون بأنه إجراء مراقبة ينتهك الخصوصية. حجتهم بسيطة: التحقق الإجباري من الهوية لا يؤثر فقط على القاصرين. إنه يؤثر على الجميع، لأن كل مستخدم يجب أن يثبت عمره للوصول إلى الخدمة. وهذا يعني أن البالغين يسلمون بيانات شخصية حساسة فقط لمجرد إجراء محادثة مع برنامج.
تحذر مؤسسة EFF أيضًا من أن القانون قد يحد من وصول المراهقين إلى الأدوات الرقمية الحيوية، وأن تأثير التثبيط يمتد إلى ما هو أبعد من المستخدمين الأفراد. المطورون والشركات التي تبني أدوات الذكاء الاصطناعي تواجه بيئة امتثال حيث الإستراتيجية القانونية الأكثر أمانًا هي تقييد المزيد، وليس الأقل. عندما تكون عقوبة الخطأ في التحقق من العمر شديدة، فإن القرار التجاري المنطقي هو الحظر الزائد. وهذا يعني أن الاستخدامات التعليمية المشروعة، وأدوات دعم الصحة النفسية، والتطبيقات الإبداعية يمكن أن تصبح جميعها أضرارًا جانبية.
القلق من بنية المراقبة التحتية
بمجرد أن تُطلب من المنصات جمع والتحقق من وثائق الهوية الحقيقية، فإن هذه البنية التحتية للبيانات لا تختفي عندما ينتقل النقاش السياسي. تصبح ميزة دائمة لكيفية تفاعل الناس مع أنظمة الذكاء الاصطناعي، قاعدة بيانات تربط الهويات الحقيقية بالمحادثات الرقمية.
صياغة مؤسسة EFF قاسية: هذه بنية تحتية للمراقبة تتخفى في زي تشريعات سلامة الأطفال. الأنظمة التي تتحقق من الهوية تقوم بالضرورة بجمع الهوية، والبيانات التي يتم جمعها هي بيانات يمكن اختراقها، أو استدعاؤها قضائيًا، أو إعادة استخدامها.
تفويضات التحقق من العمر تخلق حواجز أمام الدخول تؤثر بشكل غير متناسب على الشركات الصغيرة والمشاريع مفتوحة المصدر. شركة تقنية كبيرة يمكنها تحمل تكلفة بناء بنية تحتية للتحقق من الهوية. لكن شركة ناشئة مكونة من شخصين تبني ذكاء اصطناعي تعليمي لا تستطيع ذلك.
ماذا يعني هذا لصناعة الذكاء الاصطناعي؟
تضييق النطاق من “جميع روبوتات الدردشة بالذكاء الاصطناعي” إلى “رفقاء الذكاء الاصطناعي” يظهر أن الضغط وفترات التعليق العام يمكن أن تشكل النص النهائي. لكن البنية الأساسية للتحقق من الهوية نجت من هذا التنقيح سليمة.
بالنسبة للمستخدمين، التأثير العملي يعتمد كليًا على مدى اتساع تعريف “رفيق الذكاء الاصطناعي” في التنفيذ التنظيمي. إذا ظل التعريف ضيقًا، فلن يلاحظ معظم الناس شيئًا. إذا توسع من خلال وضع القواعد أو التفسير القضائي، فإن متطلب التحقق يمكن أن يمس نطاقًا أوسع بكثير من تفاعلات الذكاء الاصطناعي مما يقترحه مروجو القانون حاليًا.
أسئلة وأجوبة شائعة
- س: ما هو قانون GUARD ACT بالضبط؟
ج: هو مشروع قانون أمريكي يطلب من أي شخص يريد التحدث مع “رفيق ذكاء اصطناعي” أن يثبت هويته الحقيقية باستخدام وثائق رسمية مثل جواز السفر أو الفواتير. يمنع تمامًا من هم تحت 18 عامًا من استخدام هذه البرامج، وذلك بحجة حماية الأطفال. - س: لماذا يعترض عليه نشطاء الحريات؟
ج: لأنهم يعتقدون أنه يبني نظام مراقبة ضخم. كل محادثة مع ذكاء اصطناعي سترتبط بهويتك الحقيقية، وهذه البيانات قد تُسرق أو تُستخدم لأغراض أخرى. كما أنهم يرون أنه يحد من حرية التعبير ويجعل من الصعب على الشركات الصغيرة والمطورين تقديم أدوات مفيدة. - س: هل سيؤثر هذا القانون على المستخدم العادي؟
ج: يعتمد على كيفية تعريف “رفيق الذكاء الاصطناعي”. إذا كان التعريف ضيقًا جدًا، فلن تلاحظ الفرق. لكن إذا تم توسيعه ليشمل مساعدين مثل “سيري” أو روبوتات خدمة العملاء، فقد تحتاج لإثبات هويتك لأي محادثة مع أي برنامج ذكاء اصطناعي في المستقبل.












