الذكاء الاصطناعي لا يزال لا يفهم كلمة “لا”، وفقًا لدراسة من معهد ماساتشوستس للتكنولوجيا

يمكن للذكاء الاصطناعي تشخيص الأمراض وكتابة الشعر وحتى قيادة السيارات، لكنه ما زال يعاني من مشكلة بسيطة: فهم كلمة “لا”. هذه الثغرة قد يكون لها عواقب خطيرة في التطبيقات الواقعية، مثل الذكاء الاصطناعي المستخدم في الرعاية الصحية.
دراسة تكشف تحدي فهم النفي في الذكاء الاصطناعي
وفقًا لدراسة جديدة بقيادة طالب الدكتوراه في معهد ماساتشوستس للتكنولوجيا “كميل الحمود”، بالتعاون مع “أوبن إيه آي” وجامعة أكسفورد، فإن فشل الذكاء الاصطناعي في فهم كلمات مثل “لا” و”ليس” قد يؤدي إلى نتائج خطيرة، خاصة في المجال الطبي.
يُعد النفي (مثل “لا يوجد كسر” أو “غير متضخم”) وظيفة لغوية حاسمة، خاصة في البيئات عالية الخطورة مثل الرعاية الصحية، حيث قد يؤدي سوء تفسيره إلى أضرار جسيمة. تظهر الدراسة أن نماذج الذكاء الاصطناعي الحالية—مثل “ChatGPT” و”Gemini” و”Llama”—غالبًا ما تفشل في معالجة العبارات السلبية بشكل صحيح، وتميل بدلاً من ذلك إلى الافتراضات الإيجابية.
لماذا يعجز الذكاء الاصطناعي عن فهم “لا”؟
المشكلة الأساسية ليست نقص البيانات، بل طريقة تدريب الذكاء الاصطناعي. معظم نماذج اللغة الكبيرة مصممة لتحديد الأنماط وليس للتفكير المنطقي. هذا يعني أنها قد تفسر “ليس جيدًا” على أنه لا يزال إيجابيًا إلى حد ما لأنها تربط كلمة “جيد” بالإيجابية. يحذر الخبراء من أن النماذج ستستمر في ارتكاب أخطاء صغيرة لكنها خطيرة ما لم يتم تعليمها التفكير المنطقي بدلاً من مجرد تقليد اللغة.
قال “فرانكلين ديلهيل”، كبير مهندسي البحث في شركة “Lagrange Labs” المتخصصة في البنية التحتية للمعرفة الصفرية: “الذكاء الاصطناعي جيد جدًا في توليد استجابات مشابهة لما رأاه أثناء التدريب. لكنه سيء جدًا في ابتكار شيء جديد أو خارج نطاق بيانات التدريب. إذا كانت بيانات التدريب تفتقر إلى أمثلة قوية لكلمة ‘لا’ أو التعبير عن المشاعر السلبية، فقد يعاني النموذج في توليد هذا النوع من الاستجابة.”
تحيز النماذج نحو الإيجابية
في الدراسة، وجد الباحثون أن نماذج الرؤية واللغة—المصممة لفهم الصور والنصوص—تظهر تحيزًا أقوى نحو العبارات الإيجابية، وغالبًا ما تفشل في التمييز بين التعليقات الإيجابية والسلبية.
قال الباحثون: “من خلال بيانات النفي الاصطناعية، نقدم مسارًا واعدًا نحو نماذج أكثر موثوقية. بينما يحسن نهج البيانات الاصطناعية فهم النفي، تبقى التحديات، خاصة مع الفروق الدقيقة في النفي.”
حدود الذكاء الاصطناعي في التفكير المنطقي
على الرغم من التقدم المستمر في التفكير، لا تزال العديد من أنظمة الذكاء الاصطناعي تعاني من التفكير البشري، خاصة عند التعامل مع المشكلات المفتوحة أو المواقف التي تتطلب فهمًا أعمق أو “منطقًا سليمًا”.
وأضاف “ديلهيل”: “جميع نماذج اللغة الكبيرة—التي نسميها الآن الذكاء الاصطناعي—تتأثر جزئيًا بالرسالة الأولية. عندما تتفاعل مع ChatGPT أو أنظمة مماثلة، لا يستخدم النظام مدخلك فقط. هناك أيضًا رسالة داخلية محددة مسبقًا من قبل الشركة—لا يمكنك التحكم فيها كمستخدم.”
حل المشكلة: التفكير المنطقي وليس المزيد من البيانات
أشار “كيان كاتانفوروش”، الأستاذ المساعد في التعلم العميق بجامعة ستانفورد ومؤسس شركة “Workera” لتحليل المهارات، إلى أن تحدي النفي ينبع من عيب أساسي في طريقة عمل نماذج اللغة.
قال كاتانفوروش: “النفي معقد بشكل خادع. كلمات مثل ‘لا’ و’ليس’ تقلب معنى الجملة، لكن معظم نماذج اللغة لا تفكر منطقيًا—بل تتوقع ما يبدو محتملًا بناءً على الأنماط. هذا يجعلها عرضة لعدم الفهم عندما يتعلق الأمر بالنفي.”
وحذر من أن عدم القدرة على تفسير النفي بدقة ليس مجرد عيب تقني—بل قد تكون له عواقب حقيقية خطيرة.
وأضاف: “فهم النفي أساسي للإدراك. إذا لم يتمكن النموذج من إدراكه بشكل موثوق، فهناك خطر حدوث أخطاء دقيقة ولكن حرجة—خاصة في الاستخدامات القانونية أو الطبية أو موارد البشرية.”
ورغم أن زيادة بيانات التدريب قد تبدو حلاً سهلاً، إلا أنه أكد أن الحل يكمن في مكان آخر.
واختتم قائلاً: “حل هذه المشكلة لا يتعلق بمزيد من البيانات، بل بتحسين التفكير المنطقي. نحتاج إلى نماذج يمكنها التعامل مع المنطق، وليس فقط اللغة. هذه هي الحدود الآن: الجمع بين التعلم الإحصائي والتفكير المنظم.”
الأسئلة الشائعة
- ما المشكلة الأساسية في فهم الذكاء الاصطناعي لكلمة “لا”؟
المشكلة تكمن في أن الذكاء الاصطناعي يتعرف على الأنماط ولا يفكر منطقيًا، مما يجعله يفسر العبارات السلبية بشكل خاطئ. - ما تأثير هذه المشكلة في المجال الطبي؟
قد يؤدي سوء فهم النفي—مثل “لا يوجد ورم”—إلى تشخيص خاطئ أو قرارات طبية خطيرة. - كيف يمكن تحسين فهم الذكاء الاصطناعي للنفي؟
الحل ليس في زيادة البيانات، بل في تطوير نماذج تستخدم المنطق الهيكلي بدلاً من الاعتماد فقط على أنماط اللغة.














