رئيس ضوابط الأمان في أنثروبيك يستقيل مُحذرًا من تفاقم أزمة أمان الذكاء الاصطناعي

استقال باحث أمان الذكاء الاصطناعي السابق في شركة Anthropic، معلناً عن مغادرته عبر منصة X. وأشار في رسالته إلى قلقه المتزايد من الفجوة بين المبادئ المعلنة والقرارات الفعلية داخل شركات الذكاء الاصطناعي والمجتمع ككل.
خلفية الباحث ودوره
قضى الباحث عامين في الشركة المطورة لـ Claude، حيث ركز عمله على:
- بناء دفاعات ضد التهديدات البيولوجية المحتملة باستخدام الذكاء الاصطناعي.
- تطوير أدوات للمساءلة الداخلية داخل الشركات.
- وضع أطر أولية لتوثيق إجراءات أمان الذكاء الاصطناعي.
- دراسة كيفية تعزيز روبوتات الدردشة للتحيزات لدى المستخدمين وتأثيرها على حكم البشر.
مستقبله بعد الاستقالة
على الرغم من ثنائه على زملائه السابقين، أعلن الباحث عن تحول في مساره المهني بعيداً عن العمل في شركات الذكاء الاصطناعي. وخططه المستقبلية تشمل التفرغ للكتابة، والتوجيه الشخصي، وربما دراسة الشعر.
توقيت الاستقالة وأهميتها
تأتي هذه الخطوة في وقت تزداد فيه الأسئلة حول كيفية تعامل شركات الذكاء الاصطناعي الرائدة مع:
- الرأي المخالف داخلياً.
- الإفصاح عن المخاطر المحتملة.
- الموازنة بين تطوير القدرات السريع وبين أبحاث السلامة والأمان.
الأسئلة الشائعة
لماذا استقال الباحث من شركة الذكاء الاصطناعي؟
استقال بسبب قلقه من الفجوة بين المبادئ الأخلاقية المعلنة والممارسات الفعلية في قطاع الذكاء الاصطناعي.
ما هي مجالات عمله السابقة؟
عمل على الحماية من التهديدات البيولوجية، وأدوات المساءلة الداخلية، وأطر سلامة الذكاء الاصطناعي، ودرس تأثير الشات بوت على تحيزات المستخدمين.
ماذا يعني توقيت استقالته؟
تأتي في فترة حرجة تشهد جدلاً حول شفافية شركات الذكاء الاصطناعي وموازنتها بين التطور السريع وضمان الأمان.












