امن وحماية المعلومات

“عمليات الاحتيال بالـ Deepfake تهدد البشرية — اكتشف كيف تحمي نفسك منها الآن!”

“`html

في العام الماضي، اعتقلت شرطة هونغ كونغ مجموعة مسؤولة عن عملية احتيال في استثمارات العملات الرقمية بقيمة 46 مليون دولار باستخدام تقنية “ديبفيك”. تعاونت هذه المجموعة مع شبكات احتيال خارجية لإنشاء منصات استثمارية وهمية مقنعة. اليوم، أصبحت هذه الأدوات أكثر تطوراً بشكل كبير، حيث امتدت لتشمل مقاطع الفيديو المُنشأة بالذكاء الاصطناعي، والتي تتطور بسرعة أكبر من أي وسائط أخرى.

خسائر ضخمة بسبب الذكاء الاصطناعي الخبيث

ساهم الذكاء الاصطناعي الضار في خسائر عالمية تجاوزت 12 مليار دولار بسبب عمليات الاحتيال في 2024. ووصفت وزارة الأمن الداخلي الأمريكية مقاطع الفيديو المزيفة بالذكاء الاصطناعي بأنها “تهديد واضح وحاضر ومتطور” للأمن القومي والاقتصاد والمجتمع. كما تدرس الدنمارك تعديل قانون حقوق الملكية لمكافحة مقاطع “ديبفيك” غير المصرح بها، ومنح كل شخص “الحق في جسده وملامح وجهه وصوته”.

"عمليات الاحتيال بالـ Deepfake تهدد البشرية — اكتشف كيف تحمي نفسك منها الآن!"

الحاجة إلى حلول تقنية قوية

أصبحت مقاطع “ديبفيك” تهديداً متصاعداً للمجتمع. للدفاع عن العالم الرقمي، نحتاج إلى ذكاء اصطناعي قابل للتحقق، وإلى أن تدعم عمليات مراقبة المحتوى أدلة تشفيرية، وليس مجرد الثقة. تفتح تقنيات “تعلم الآلة بمعرفة صفرية” (zkML) طرقاً جديدة لإثبات صحة النتائج دون الكشف عن النموذج أو البيانات الأساسية.

مشاكل المراقبة الحالية

تواجه عمليات مراقبة المحتوى الحالية صعوبة في مواكبة التلاعب بالذكاء الاصطناعي. عند تحميل محتوى ضار على منصات متعددة، يجب على كل منصة إعادة تصنيف هذا المحتوى المكرر بشكل مستقل، مما يهدر الموارد الحاسوبية ويزيد من التأخير.

والأسوأ من ذلك، أن خوارزميات وسياسات كل منصة قد تختلف، وقد يُعتبر الفيديو ضاراً على موقع بينما يكون مقبولاً على آخر. العملية برمتها تفتقر إلى الشفافية، وقرارات الذكاء الاصطناعي للمنصات موجودة في “صندوق أسود”. نادراً ما يعرف المستخدمون سبب إزالة محتوى أو السماح به.

الحل: مراقبة قابلة للتحقق

توفر تقنية “تعلم الآلة بمعرفة صفرية” (zkML) طريقة للتحقق من قرارات المراقبة القائمة على الذكاء الاصطناعي دون تكرار العمل أو الكشف عن معلومات حساسة. الفكرة هي أن تنتج أنظمة الذكاء الاصطناعي تصنيفاً بالإضافة إلى دليل تشفيري على هذا التصنيف.

تخيل نموذج مراقبة يُقيّم محتوى (صورة، فيديو، نص، إلخ.) ويعطيه تصنيفاً واحداً أو أكثر (مثل “آمن للعمل”، “غير آمن”، “عنيف”، “إباحي”، إلخ.). إلى جانب التصنيفات، يُنشئ النظام دليلاً بمعرفة صفرية يؤكد أن نموذج ذكاء اصطناعي معروف قام بمعالجة المحتوى وأنتج هذه النتائج. يمكن تضمين هذا الدليل في بيانات المحتوى، مما يسمح للمحتوى نفسه بحمل علامة مراقبة مقاومة للتلاعب.

فوائد المراقبة المدمجة بـ zkML

  • التحقق من الدليل أسرع وأبسط من تشغيل نموذج ذكاء اصطناعي كبير على كل محتوى.
  • إمكانية نقل حالة المراقبة مع المحتوى نفسه.
  • ضمان الشفافية من خلال نتائج قابلة للتحقق علناً.

بهذه الطريقة، تصبح المراقبة عملية حسابية لمرة واحدة لكل محتوى، مما يوفر موارد حاسوبية هائلة ويقلل من التأخير في توصيل المحتوى.

طبقة النزاهة للذكاء الاصطناعي

توفر تقنيات “الأدلة بمعرفة صفرية” طبقة النزاهة المفقودة التي تحتاجها عمليات المراقبة القائمة على الذكاء الاصطناعي. تسمح لنا بإثبات صحة القرارات (مثل تصنيفات المحتوى) دون الكشف عن المدخلات الحساسة أو تفاصيل النموذج الداخلية. يمكن للشركات تطبيق سياسات المراقبة ومشاركة نتائج موثوقة مع بعضها أو مع الجمهور، مع حماية خصوصية المستخدمين ومنطق الذكاء الاصطناعي الخاص.

الأسئلة الشائعة

ما هي تقنية “ديبفيك”؟

هي تقنية تستخدم الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صور مزيفة تبدو حقيقية، وغالباً ما تُستخدم في عمليات الاحتيال.

كيف تحارب zkML المحتوى الضار؟

تسمح zkML بإنشاء أدلة تشفيرية تثبت تصنيف المحتوى دون الحاجة إلى إعادة التحليل، مما يجعل المراقبة أكثر كفاءة وشفافية.

ما فوائد المراقبة القابلة للتحقق؟

تقلل من تكاليف الحوسبة، وتوفر الوقت، وتضمن نتائج موثوقة عبر جميع المنصات، مما يعزز الثقة في المحتوى الرقمي.

“`

موجه السوق

خبير استراتيجي في تحليل الأسواق المالية، يقدم نصائح مستنيرة واستراتيجيات فعالة لتعزيز النجاح المالي.
زر الذهاب إلى الأعلى