الذكاء الاصطناعي يبالغ في تقدير عقلانية البشر

كشفت دراسة جديدة أن نماذج الذكاء الاصطناعي قد تكون متفائلة أكثر من اللازم بشأن طريقة تفكير البشر. وأظهرت النتائج أن روبوتات الدردشة الشهيرة، مثل “شات جي بي تي” من أوبن إيه آي و”كلود” من أنثروبيك، تميل إلى افتراض أن البشر أكثر عقلانية ومنطقية مما هم عليه بالفعل، خصوصًا في المواقف التي تتطلب تفكيرًا استراتيجيًا.
وقد يؤثر هذا الفارق بين توقعات الذكاء الاصطناعي لسلوك البشر ومستوى ذكائهم الفعلي على قدرة هذه الأنظمة في التنبؤ بالقرارات البشرية في الاقتصاد ومجالات أخرى.
واختبر الباحثون نماذج الذكاء الاصطناعي، بما في ذلك “GPT-40” و”Claude-Sonnet-4″، ضمن إطار نظرية الألعاب الكلاسيكية المعروفة باسم “مسابقة الجمال الكينزية”، التي تعتمد على توقع تصرفات الآخرين عند اتخاذ قرار. كما جربت النماذج نسخة “خمن الرقم”، حيث يختار كل لاعب رقمًا بين صفر ومئة ويكون الفائز هو الأقرب إلى نصف متوسط اختيارات جميع اللاعبين.
وتمت برمجة النماذج لتعديل أرقامها بناءً على مستوى اللاعبين البشر الذين تواجههم، بدءًا من طلاب السنة الأولى الجامعيين وصولًا إلى خبراء نظرية الألعاب، وطلب منها شرح سبب اختياراتها.
وأظهرت النتائج أن النماذج غالبًا ما “تلعب بذكاء زائد”، وافترضت مستوى من التفكير المنطقي لدى البشر لا يظهره معظم المشاركين الحقيقيين، مما أدى إلى فشلها في الوصول للنتيجة الصحيحة في كثير من الحالات.
