مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

27 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • هدنة وحصار المضيق
  • نبض الملاعب
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • هدنة وحصار المضيق

    هدنة وحصار المضيق

  • نبض الملاعب

    نبض الملاعب

  • إسرائيل تواصل غاراتها على لبنان

    إسرائيل تواصل غاراتها على لبنان

  • فيديوهات

    فيديوهات

مشكلة "الثقة المفرطة" في الذكاء الاصطناعي تقترب من الحل

قد يكون الذكاء الاصطناعي، بما يملكه من مخزون هائل من المعرفة، مفيدا للغاية، إلا أن له عيبا واحدا قد يحدّ من مزاياه، وهو الثقة المفرطة في الإجابة.

مشكلة "الثقة المفرطة" في الذكاء الاصطناعي تقترب من الحل
صورة أرشيفية / naukatv.ru

فأي إجابة يقدمها، سواء كانت مبنية على استدلال مدروس أو مجرد تخمين، يطرحها بالقدر نفسه من الثقة.

واكتشف باحثون في مختبر علوم الحاسوب والذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا أن أصل هذه الثقة المفرطة يعود إلى خلل محدد في طريقة تدريب النماذج، وقد طوروا أسلوبا جديدا يهدف إلى معالجة هذا الخلل دون التأثير على دقة الأداء.

وتُعرف هذه الطريقة باسم RLCR (التعلم المعزز باستخدام مكافآت المعايرة)، وقد وُصفت في بحث منشور على منصة arXiv، ومن المقرر تقديمه في المؤتمر الدولي للتعلم الآلي ICLR 2026 في ريو دي جانيرو. وتعتمد هذه المنهجية على تدريب النماذج اللغوية على تقديم إجابات مرفقة بتقدير لدرجة الثقة، أي أن النموذج لا يكتفي بالإجابة، بل يعبّر أيضا عن مستوى عدم يقينه.

ما المشكلة؟

تقوم أساليب التعلم المعزز المستخدمة في أحدث نماذج التفكير الاصطناعي على مكافأة الإجابة الصحيحة ومعاقبة الإجابة الخاطئة، دون التمييز بين طريقة الوصول إلى النتيجة. وبالتالي، يحصل النموذج الذي يصل إلى الإجابة الصحيحة عبر استنتاج منطقي، على نفس المكافأة التي يحصل عليها نموذج آخر وصل إليها عن طريق التخمين.

ومع مرور الوقت، يؤدي ذلك إلى ترسيخ سلوك لدى النماذج يجعلها تميل إلى تقديم إجابات واثقة حتى في الحالات التي تفتقر فيها إلى الأدلة الكافية.

وتترتب على هذه الثقة المفرطة آثار سلبية، خاصة عند استخدام هذه النماذج في مجالات حساسة مثل الطب أو القانون أو التمويل، حيث تعتمد القرارات البشرية على مخرجات الذكاء الاصطناعي. فالنموذج الذي يعبر عن ثقة عالية غير دقيقة قد يكون أكثر خطورة من نموذج يخطئ بوضوح، لأن المستخدم قد لا يدرك ضرورة التحقق من الإجابة.

ويشرح طالب الدراسات العليا في معهد ماساتشوستس للتكنولوجيا وأحد مؤلفي الدراسة، ميهول داماني، قائلا:
"إن أساليب التدريب التقليدية بسيطة وفعالة، لكنها لا تشجع النموذج على التعبير عن عدم اليقين أو قول (لا أعرف)، لذلك يتعلم النموذج بطبيعته أن يخمّن عندما لا يكون واثقا".

ما الحل؟

تعالج طريقة RLCR هذه المشكلة بإضافة عنصر واحد إلى دالة المكافأة، وهو مقياس "براير" (Brier score)، المستخدم لقياس مدى تطابق ثقة النموذج مع دقته الفعلية. خلال التدريب، تتعلم النماذج تقييم كل من الإجابة وعدم يقينها في الوقت نفسه، بحيث تقدم الجواب مع تقدير لمستوى الثقة.

وبذلك تتم معاقبة كل من الإجابات الخاطئة ذات الثقة المبالغ فيها، والإجابات الصحيحة المصحوبة بعدم ثقة غير مبررة، مما يساعد على تحقيق توازن أفضل بين الدقة والتعبير الواقعي عن الثقة.

المصدر: Naukatv.ru

 

 

 

التعليقات

يديعوت أحرنوت: إسرائيل تستعد لسيناريوهات التصعيد ضد إيران بعد أوامر ترامب للجيش

لحظة بلحظة.. واشنطن تبحث خيارات عسكرية جديدة ضد طهران على وقع الجمود الدبلوماسي

جريمة حرب.. البرلمان التركي يوجه تحذيرا لإسرائيل ويدعوها إلى الإفراج عن نشطاء أسطول الصمود العالمي

دميترييف يحذر: أوروبا أمام تسونامي من سبع موجات متتالية بدءا من مايو

"عملية لوجستية عالمية".. إسرائيل تعلن الحصول على أطنان من الأسلحة وكمية هائلة من المعدات العسكرية

مصر.. ظهور كوبرا ضخمة في محافظة الغربية يثير الذعر والمخاوف بين السكان (صورة)

الإمارات.. إحالة شبكة تضم 13 متهما و6 شركات لمحكمة أمن الدولة في قضية عتاد عسكري لسلطة بورتسودان

مصدر إسرائيلي: ترامب يفقد الثقة بإسرائيل

سيناتور أمريكي لهيغسيث: لم تحققوا أيا من أهدافكم الاستراتيجية المزعومة في الحرب مع إيران

ترامب يهدد إيران حاملا البندقية: لن أكون لطيفا أكثر بعد اليوم

الجيش الروسي يحرر بلدة في دونيتسك ويسيطر على أخرى في سومي (فيديو)