“إيجين كلاود” تتصدر المشهد في مؤتمر DAS بلندن بتقديمها مفهوم الذكاء الاصطناعي القابل للتحقق

في مؤتمر DAS بلندن، أكد أحد المتحمسين للعملات الرقمية أن المرحلة القادمة في عالم التشفير لن تكون للتمويل اللامركزي (DeFi)، بل ستكون لأنظمة الذكاء الاصطناعي القابلة للتحقق – وهي أنظمة ذكية يمكن إثبات عملها خارج السلسلة على السلسلة نفسها.
ما هي أنظمة الذكاء الاصطناعي القابلة للتحقق؟
تم تقديم فكرة منصة تشبه السحابة الإلكترونية، مكونة من ثلاث خدمات رئيسية: البيانات، والمعالجة، والاستدلال. تعتمد هذه الخدمات على أمان الاقتصاد التشفيري، مما يمنح المطورين مرونة السحابة العامة مع إضافة خاصية إثبات صحة العمليات قبل تحريك الأموال أو تحديث البيانات على شبكة إيثيريوم.
أهمية الثقة في مستقبل الذكاء الاصطناعي
صرح المتحدث: “أهم عقبة ستواجه مؤسسي مشاريع الذكاء الاصطناعي خلال العقد القادم هي مشكلة الثقة. بدون آلية لجعل الذكاء الاصطناعي قابلاً للتحقق في كل خطوة – من الاستدلال والتقييم إلى التدريب والهوية – لن نتمكن من دخول عصر الأنظمة الذكية الحقيقية.”
الفكرة الأساسية هي الجمع بين قابلية البرمجة وإمكانية الإثبات، أي “قابلية برمجة كالسحابة الإلكترونية، وضمانات كسلسلة الكتل”، كحل للاختيار الصعب بين تنفيذ محدود على السلسلة أو عمليات معالجة غير شفافة خارجها.
كيف يمكن بناء الثقة في الأنظمة الذكية؟
يتفق مؤسس مشارك في مشروع Lit Protocol مع هذا الهدف، مركزًا على الخصائص التي يمكنها غرس الثقة في وكلاء الذكاء الاصطناعي، مثل “القيود والسياسات” لضمان التنفيذ الصحيح.
وأضاف: “كما هو الحال مع أي شيء يتعلق بالأمان، هناك مكونات متعددة للتعامل مع أنواع الهجمات المختلفة والدفاع ضدها.” وأكد أن فرض القيود أثناء التشغيل – وليس فقط الإثبات بعد الحدث – هو ما يحول الوكلاء من مجرد عروض تجريبية إلى بنية تحتية موثوقة.
في تصميم Lit Protocol، يمكن للمستخدم أن يأمر الوكيل بإرسال بريد إلكتروني أو شراء بيتكوين. في هذه الحالة، “يتواصل الوكيل مع Lit، التي تتحقق من مطابقة السياسات المحددة… ولا ينفذ الأمر إلا إذا اجتاز هذه السياسات.”
الخلاصة: مكونات الثقة الكاملة
ببساطة، يمكن تلخيص بناء الثقة الكاملة في سؤالين رئيسيين:
- هل يمكن للوكيل التصرف نيابة عني؟ (تتولى Lit الإجابة على هذا).
- هل يمكنني الوثوق بنتيجة الحساب الذي تم خارج السلسلة؟ (يتولى EigenCloud و Google’s AP2 الإجابة على هذا).
هناك أيضًا طرق عديدة للإثبات والتحقق، تتراوح بين بيئات التنفيذ الموثوقة، والعقوبات الاقتصادية المشفرة، وبراهين المعرفة الصفرية. الهدف المستقبلي هو جعل هذه الإثباتات ظاهرة للجميع بطرق تحافظ على الخصوصية، بحيث لا يحتاج الوكيل الملتزم إلى إعادة التدقيق في كل منصة يستخدمها.
الأسئلة الشائعة
ما هو محور المرحلة القادمة في عالم العملات الرقمية حسب المؤتمر؟
المرحلة القادمة تركز على “الذكاء الاصطناعي القابل للتحقق”، وهي أنظمة ذكية يمكن إثبات عملها خارج السلسلة على السلسلة نفسها، وليس التمويل اللامركزي (DeFi).
ما هي المشكلة الرئيسية التي يحلها الذكاء الاصطناعي القابل للتحقق؟
المشكلة الرئيسية هي “الثقة”. الهدف هو إنشاء آلية تسمح بالتحقق من كل خطوة يقوم بها الذكاء الاصطناعي، مما يجعله موثوقًا به للاستخدام في المهام الحساسة مثل المعاملات المالية.
كيف تعمل هذه الأنظمة على بناء الثقة؟
تعمل من خلال الجمع بين قابلية البرمجة وإمكانية الإثبات. تستخدم سياسات وقيود يتم التحقق منها تلقائيًا أثناء التنفيذ، وتقنيات إثبات مختلفة لضمان أن النتائج صحيحة ويمكن الوثوق بها قبل تنفيذها على الشبكة.














