ناشطو الخصوصية يحذرون: مقترحات الاتحاد الأوروبي تمنح عمالقة التكنولوجيا حرية استغلال البيانات

يقول منتقدو آخر تحديث قانوني للاتحاد الأوروبي إن بروكسل تقترب الآن من خط الخطر فيما يتعلق بحقوق البيانات، وربما تتجاوز خطاً كانت أوروبا تدّعي أنه خط أحمر.
نهاية عصر الخصوصية في أوروبا؟
لطالما تفاخر مسؤولو الاتحاد الأوروبي بقوانين الخصوصية الصارمة، والتي كانت تُعتبر الأرض الأخلاقية العالية للتكتل، حيث قيل للمواطنين أن حياتهم الخاصة لن تُباع مقابل الراحة أو الابتكار. يبدو أن تلك الأيام قد تكون في طريقها إلى النهاية.
ما الذي يتغير بالضبط؟
تدّعي المفوضية الأوروبية أن الهدف هو تبسيط القواعد الجديدة المعقدة. لكن النشطاء الذين اطّلعوا على التفاصيل يقولون إن الصورة أقل نقاءً بكثير.
بموجب المقترحات، قد يُسمح للشركات التقنية الكبرى بأخذ المعلومات الشخصية للأفراد واستخدامها في تدريب الذكاء الاصطناعي تحت ذريعة “المصلحة المشروعة”.
إذا تم تطبيق هذا، فسيكون تغييراً جذرياً عن القانون الحالي الذي يتطلب موافقة صريحة لاستخدام أنواع كثيرة من المعلومات الحساسة. وقد وصفته منظمة “NOYB” النمساوية بأنه “موت بألف جرح”.
تخفيف القيود على التكنولوجيا
مجموعة أخرى من التعديلات تتعلق بقوانين “الكوكيز” والنوافذ المنبثقة. حيث يقترح المشروع دمج هذا التشريع بالكامل في قانون حماية البيانات العام (GDPR)، والسماح للشركات بالوصول إلى هواتفكم وأجهزتكم بناءً على أذونات عامة، مثل الحاجة “لكشف الاحتيال أو قياس الجمهور”.
تقول الخبراء إن هذا سيغير طريقة حماية أوروبا للمساحات الخاصة داخل أجهزتكم الشخصية.
ضغوط الشركات الكبرى
هذا التغيير لا يحدث من فراغ. فقد اتهمت الحكومة الأمريكية والقوى التقنية الكبرى قانون الاتحاد الأوروبي بأنه “معادٍ للابتكار”. وضغطت هذه الشركات across أوروبا لتليين قانون الذكاء الاصطناعي، زاعمة أن أدوات التكنولوجيا سريعة التطور لا يمكنها البقاء داخل قفص بيروقراطي بطيء.
وفي خطوة أخرى، يقترح المشروع منح الشركات التي تستخدم الذكاء الاصطناعي لمهام داخلية محددة إعفاءً من تسجيل أنظمتها في قاعدة بيانات الاتحاد الأوروبي للذكاء الاصطناعي عالي المخاطر. كما يقترح منح مهلة سنة كاملة قبل فرض غرامات على مقاطع الفيديو المزيفة generated بالذكاء الاصطناعي.
خوف أوروبا من التخلف عن الركب
تصر المفوضية على أنها لا تتخلى عن المبادئ، بل فقط تزيل الأعباء الإدارية غير الضرورية. لكن النقاد يقولون إن تخويف الصناعة Technology يعمل.
الطبقة السياسية في أوروبا قلقة من توقف الاستثمارات، وتبحث عن طرق لتظهر مرونة. حتى أنصار قانون الذكاء الاصطناعي يعترفون سراً أن قلقهم من التخلف behind الولايات المتحدة والصين أصبح أكبر مما كان عليه عندما صاغوا القانون لأول مرة.
السؤال الآن هو ما إذا كانت الدول الأعضاء والبرلمان الأوروبي سيقبلون بهذا التحول، فالكثيرون في بروكسل يدركون أن الرمزية خطيرة. إذا أضعفت أوروبا علم الخصوصية الذي رفعته طوال عقد، فقد لا تنتهي قصة الـ GDPR كما تصورتها القارة: منارة قيم يقتدي بها الآخرون. بل قد تصبح مجرد مثال آخر على كلام عظيم لم يستطع الصمود أمام حرارة قوة التجارة.
الأسئلة الشائعة
- ما الذي يغيره الاتحاد الأوروبي في قوانين الخصوصية؟
يقترح الاتحاد الأوروبي تغييرات تسمح للشركات التقنية الكبرى باستخدام بياناتك الشخصية لتدريب الذكاء الاصطناعي بسهولة أكبر، وتخفيف القيود على الوصول إلى أجهزتك under ذرائع مثل “المصلحة المشروعة”. - لماذا يقوم الاتحاد الأوروبي بهذه التغييرات؟
تدّعي المفوضية الأوروبية أن الهدف هو تبسيط القواعد وتعزيز الابتكار. لكن النقاد يعتقدون أن الضغوط الهائلة من الشركات التقنية الكبرى والخوف من التخلف التكنولوجي behind الصين والولايات المتحدة هما الدافع الحقيقي. - كيف ستؤثر هذه التغييرات على المستخدم العادي؟
إذا تمت هذه التغييرات، قد تفقد سيطرتك على بياناتك الشخصية. قد تستخدم الشركات معلوماتك دون موافقتك الصريحة لتدريب برامج الذكاء الاصطناعي، وقد يصبح الوصول إلى محتويات هاتفك أو حاسوبك أسهل بالنسبة لها under مبررات أوسع.












