شركات الذكاء الاصطناعي تريد قراءة أفكار روبوتات الدردشة – وقد يشمل ذلك أفكارك أيضًا!

نشر أربعون من كبار الباحثين في مجال الذكاء الاصطناعي ورقة بحثية يجادلون فيها بأن الشركات بحاجة إلى البدء في قراءة “أفكار” أنظمة الذكاء الاصطناعي الخاصة بها. ليس المخرجات النهائية فقط، بل عملية التفكير خطوة بخطوة، أي الحوار الداخلي الذي يحدث قبل أن يقدم لك ChatGPT أو Claude إجابة.
مراقبة سلسلة الأفكار: بين الأمان والتجسس
يُطلق الباحثون على هذا الاقتراح اسم “مراقبة سلسلة الأفكار” (Chain of Thought monitoring)، ويهدف إلى منع السلوكيات الخاطئة حتى قبل أن يصل النموذج إلى إجابة، ويمكن أن يساعد الشركات في وضع تقييمات “خلال التدريب واتخاذ قرارات النشر”.
لكن هناك تحذيرًا قد يثير قلق أي شخص قام بكتابة سؤال خاص في ChatGPT: إذا تمكنت الشركات من مراقبة أفكار الذكاء الاصطناعي أثناء التفاعل مع المستخدمين، فيمكنها مراقبة أي شيء آخر أيضًا.
مخاطر انتهاك الخصوصية
“القلق مبرر”، كما قال نيك آدامز، الرئيس التنفيذي لشركة الاختراق التجارية 0rcus. “غالبًا ما تتضمن سلسلة الأفكار الخام أسرار المستخدمين حرفيًا لأن النموذج ‘يفكر’ بنفس الرموز التي يتلقاها.”
كل ما تكتبه في نموذج الذكاء الاصطناعي يمر عبر سلسلة أفكاره. المخاوف الصحية، المشاكل المالية، الاعترافات—كل ذلك يمكن تسجيله وتحليله إذا لم يتم التحكم في مراقبة سلسلة الأفكار بشكل صحيح.
وحذر آدامز: “التاريخ يميل إلى جانب المشككين. بيانات الاتصالات بعد أحداث 11 سبتمبر وسجلات حركة مزودي الإنترنت بعد قانون الاتصالات لعام 1996 تم تقديمها جميعًا ‘لأغراض أمنية’، ثم أعيد استخدامها لأغراض تحليلية تجارية واستدعاءات قضائية. نفس الجاذبية ستؤثر على أرشيف سلسلة الأفكار ما لم يتم فرض الاحتفاظ بها بطريقة تشفيرية وتقييد الوصول قانونيًا.”
تحذيرات من اقتصاد المراقبة
باتريس ويليامز-ليندو، الرئيسة التنفيذية لشركة Career Nomad، حذرة أيضًا من مخاطر هذه الطريقة.
وقالت: “لقد رأينا هذا السيناريو من قبل. تذكر كيف بدأت وسائل التواصل الاجتماعي بـ ‘تواصل مع أصدقائك’ ثم تحولت إلى اقتصاد مراقبة؟ نفس الإمكانية موجودة هنا.”
وتتوقع مستقبلًا من “مسرح الموافقة”، حيث “تتظاهر الشركات باحترام الخصوصية، لكنها تخفي مراقبة سلسلة الأفكار في شروط استخدام من 40 صفحة.”
وأضافت: “بدون ضوابط عالمية، سيتم استخدام سجلات سلسلة الأفكار لكل شيء بدءًا من استهداف الإعلانات إلى ‘تقييم مخاطر الموظفين’ في أدوات المؤسسات. انتبهوا لهذا خاصة في تقنيات الموارد البشرية وذكاء الاصطناعي الإنتاجي.”
هل هناك حل آمن؟
في اسم الأمان، قد تسمح الشركات للمستخدمين بالانسحاب من مشاركة بياناتهم للتدريب، لكن هذه الشروط قد لا تنطبق بالضرورة على سلسلة أفكار النموذج—فهي مخرج ذكاء اصطناعي، وليس تحت سيطرة المستخدم—وعادةً ما تعيد نماذج الذكاء الاصطناعي إنتاج المعلومات التي يقدمها المستخدمون لإجراء تفكير سليم.
إذن، هل هناك حل لتعزيز الأمان دون المساس بالخصوصية؟
اقترح آدامز بعض الضمانات: “تخفيف المخاطر: آثار في الذاكرة مع عدم الاحتفاظ بالبيانات لأكثر من يوم، وتجزئة البيانات الشخصية قبل التخزين، وحذف البيانات من جانب المستخدم، وإضافة ضوضاء الخصوصية التفاضلية على أي تحليلات مجمعة.”
لكن ويليامز-ليندو لا تزال متشككة: “نحتاج إلى ذكاء اصطناعي مسؤول، وليس أدائيًا—وهذا يعني الشفافية في التصميم، وليس المراقبة افتراضيًا.”
الأسئلة الشائعة
ما هي مراقبة سلسلة الأفكار (CoT monitoring)؟
هي طريقة تقترحها أبحاث الذكاء الاصطناعي لمراقبة عملية التفكير الداخلية للنماذج قبل إعطاء الإجابة، بهدف تحسين الأمان والكفاءة.
ما هي مخاطر هذه المراقبة؟
قد تؤدي إلى انتهاك الخصوصية، حيث يمكن تسجيل وتحليل البيانات الحساسة مثل المشاكل الصحية أو المالية التي يشاركها المستخدمون مع الذكاء الاصطناعي.
هل هناك حلول لحماية الخصوصية؟
يقترح الخبراء ضوابط مثل التشفير، وحذف البيانات غير الضرورية، والشفافية في التسجيل، لكن التطبيق الفعلي يعتمد على ثقة المستخدمين في الشركات المطورة.














