العملاء الذكاء الاصطناعي في حاجة إلى الهوية الرقمية وإثبات المعرفة الصفرية هو الحل

تمر التقنية الحديثة والتحديات الأمنية بمرحلة مثيرة للغاية. فعدد متزايد من شركات الاستثمار بات يستعين بوكلاء الذكاء الاصطناعي لمراجعة تقارير الأبحاث وملفات الشركات. وفي المقابل، يُطلب من البشر تقديم بيانات بيومترية شخصية وحساسة بشكل متزايد، مثل مسح الوجه وعينات الصوت وأنماط السلوك، فقط لإثبات أنهم ليسوا برامج روبوتية. وما إن تنتشر هذه البيانات، حتى يمكن لبرامج الذكاء الاصطناعي الضارة استخدامها لتقليد الأشخاص الحقيقيين بدرجة عالية من المصداقية، مما يقوض الأنظمة المصممة أصلاً لمنعها. وهذا يضعنا في سباق تسلح غريب – فكلما زادت تدابير التحقق invasiveness، زادت المخاطر عند تسريبها لا محالة. إذن، كيف يمكننا التحقق من هوية الطرف الذي نتعامل معه حقاً، سواء كان بشرياً أم آلياً؟
فجوة الثقة التي تعيق التقدم
إن عدم وجود هوية قابلة للتحقق للذكاء الاصطناعي يخلق مخاطر فورية في الأسواق. عندما تتمكن وكلاء الذكاء الاصطناعي من انتحال شخصية البشر، أو التلاعب بالأسواق، أو تنفيذ معاملات غير مصرح بها، تتردد الشركات بحق في نشر الأنظمة المستقلة على نطاق واسع. والأمر لا يقتصر على منع الجهات الخبيثة من نشر وكلاء ضارين، فالمستقبل سيشهد المزيد من وكلاء الذكاء الاصطناعي المستقلين الأكثر قدرة. في هذه البيئة المشبعة بالوكلاء، كيف لنا أن نعرف من نتعامل معه؟ حتى أنظمة الذكاء الاصطناعي الشرعية تحتاج إلى أوراق اعتماد قابلة للتحقق للمشاركة في الاقتصاد الناشئ بين الوكلاء الآليين.
الجانب البشري في هذه المعادلة معطل أيضاً. أنظمة التحقق التقليدية تعرض المستخدمين لخروقات بيانات ضخمة، وتسمح بسهولة بالمراقبة الجماعية، وتدر مليارات الدولارات للشركات الكبرى من بيع المعلومات الشخصية دون تعويض أصحابها. ومنطقي أن يتردد الناس في مشاركة المزيد من بياناتهم الشخصية، بينما تفرض المتطلبات التنظيمية إجراءات تحقق أكثر تدخلاً.
براهين المعرفة الصفرية: الحل بين الخصوصية والمساءلة
تقدم “براهين المعرفة الصفرية” حلاً لهذه المشكلة المستعصية. بدلاً من الكشف عن المعلومات الحساسة، تسمح هذه البراهين للأطراف، سواء كانوا بشراً أو برامج، بإثبات ادعاءات محددة دون الكشف عن البيانات الأساسية. يمكن للمستخدم أن يثبت أنه تجاوز سن 21 دون الكشف عن تاريخ ميلاده. يمكن لوكيل الذكاء الاصطناعي أن يثبت أنه تم تدريبه على مجموعات بيانات أخلاقية دون الكشف عن خوارزمياته الخاصة. يمكن للمؤسسة المالية التحقق من استيفاء العميل للمتطلبات التنظيمية دون تخزين معلوماته الشخصية التي قد تتعرض للاختراق.
بالنسبة لوكلاء الذكاء الاصطناعي، يمكن لهذه البراهين تمكين مستويات الثقة العميقة المطلوبة، حيث يمكننا التحقق ليس فقط من البنية التقنية ولكن من أنماط السلوك والمساءلة القانونية والسمعة الاجتماعية. يمكن تخزين هذه الادعاءات في “رسم بياني للثقة” قابل للتحقق على سلسلة الكتل (البلوك تشين). فكر في الأمر كطبقة هوية مركبة تعمل عبر المنصات والحدود. بهذه الطريقة، عندما يقدم وكيل الذكاء الاصطناعي أوراق اعتماده، يمكنه إثبات أن بياناته التدريبية تلبي المعايير الأخلاقية، وأن مخرجاته تم تدقيقها، وأن أفعاله مرتبطة بكيانات بشرية مسؤولة، كل ذلك دون الكشف عن المعلومات الخاصة.
آثار السوق: فتح اقتصاد الوكلاء الآليين
يمكن للذكاء الاصطناعي التوليدي إضافة تريليونات الدولارات سنوياً إلى الاقتصاد العالمي، لكن much من هذه القيمة لا تزال محبوسة behind حواجز التحقق من الهوية. هناك عدة أسباب لذلك، منها حاجة المستثمرين المؤسسيين إلى الامتثال القوي “لمعرفة عميلك” و”مكافحة غسل الأموال” قبل ضخ رأس المال في استراتيجيات مدفوعة بالذكاء الاصطناعي. كما تحتاج الشركات إلى هويات قابلة للتحقق للوكلاء قبل السماح للأنظمة المستقلة بالوصول إلى البنية التحتية الحرجة. ويطالب المنظمون بآليات للمساءلة قبل الموافقة على نشر الذكاء الاصطناعي في المجالات الحساسة.
أنظمة الهوية القائمة على براهين المعرفة الصفرية تلبي كل هذه المتطلبات مع الحفاظ على الخصوصية والاستقلالية التي تجعل الأنظمة اللامركزية قيمة. من خلال تمكين “الكشف الانتقائي”، فإنها تلبي المتطلبات التنظيمية دون إنشاء مستودعات جذابة لبيانات المستخدمين الشخصية. ومن خلال توفير التحقق التشفيري، فإنها تمكن التفاعلات “الخالية من الثقة” بين الوكلاء المستقلي. وبالحفاظ على سيطرة المستخدم، فإنها تتماشى مع لوائح حماية البيانات الناشئة.
يمكن لهذه التقنية أيضاً المساعدة في معالجة أزمة “التزييف العميق” المتنامية. عندما يمكن ربط كل جزء من المحتوى تشفيرياً بمنشئ تم التحقق منه دون الكشف عن هويته، يمكننا مكافحة المعلومات المضللة وحماية الخصوصية. وهذا أمر بالغ الأهمية مع أصبح المحتوى المنتج بالذكاء الاصطناعي لا يمكن تمييزه عن ذلك الذي يصنعه البشر.
الطريق إلى الأمام
سيجادل البعض بأن أي نظام للهوية يمثل خطوة نحو الاستبداد – لكن لا يمكن لأي مجتمع أن يعمل دون وسيلة لتحديد هوية مواطنيه. التحقق من الهوية يحدث بالفعل على نطاق واسع، لكن بشكل سيء. في كل مرة نرفع فيها مستندات للتحقق، أو نخضع للتعرف على الوجه، أو نشارك بيانات شخصية للتحقق من العمر، فإننا نشارك في أنظمة هوية متطفلة وغير آمنة وغير فعالة.
تقدم براهين المعرفة الصفرية طريقاً إلى الأمام يحترم خصوصية الفرد مع تمكين الثقة اللازمة للتفاعلات الاقتصادية المعقدة. إنها تتيح لنا بناء أنظمة يتحكم فيها المستخدمون في بياناتهم، حيث لا يتطلب التحقق المراقبة، ويمكن لكل من البشر ووكلاء الذكاء الاصطناعي التفاعل بأمان دون التضحية بالاستقلالية.
أسئلة شائعة
- ما هي المشكلة الأساسية التي يناقشها المقال؟
المشكلة هي صعوبة التحقق من الهوية في العصر الرقمي. فالبشر مطالبون بتقديم بيانات شخصية حساسة للغاية لإثبات أنهم بشر، بينما يمكن للذكاء الاصطناعي الضار سرقة هذه البيانات واستخدامها لانتحال الشخصية، مما يخلق سباق تسلح أمني معقد. - ما هو الحل التقني الذي يقترحه المقال؟
الحل المقترح هو استخدام “براهين المعرفة الصفرية”. هي تقنية تسمح لأي طرف (إنسان أو برنامج) بإثبات صحة معلومة معينة (مثل بلوغ سن معين أو امتلاك ترخيص) دون الحاجة إلى الكشف عن البيانات الشخصية الأساسية نفسها، مما يحقق التوازن بين التحقق والخصوصية. - كيف تفيد هذه التقنية كل من البشر والذكاء الاصطناعي؟
تفيد البشر من خلال حماية بياناتهم الشخصية ومنع تسريبها أثناء عمليات التحقق. وتفيد الذكاء الاصطناعي من خلال تزويد وكلائه بـ “هوية رقمية” قابلة للتحقق تثبت مصداقيتها وأخلاقية تدريبها، مما يفتح الباب لاقتصاد آمن للتعامل بين الوكلاء الآليين بعضهم البعض ومع البشر.














