كشفت دراسة جديدة لجامعة ستانفورد أن برنامج الذكاء الاصطناعي ChatGPT قد يخبرك بأنك على حق حتى عندما تكون مخطئاً.
واختبر باحثون من ستانفورد وكارنيجي ميلون نحو 11 نموذجًا للذكاء الاصطناعي عبر أكثر من 11.500 محادثة حقيقية.
وكانت النتائج على النحو الآتي:
→ كل نموذج وافق على المستخدمين بنسبة 50٪ أكثر من الإنسان
→ كان يتحقق من صحة المستخدمين الذين وصفوا التلاعب أو خداع الآخرين
→ لم يقاوم ذلك.. بل كان يشجعهم
وأجرى الباحثون تجربة حية مع 1.604 أشخاص حول صراعات شخصية حقيقية باستخدام الذكاء الاصطناعي، حيث حصلت إحدى المجموعات على ذكاء اصطناعي متملق، بينما حصلت المجموعة الأخرى على ذكاء اصطناعي محايد.
وأصبحت المجموعة التي تعاملت مع الذكاء الاصطناعي المتملق أقل استعداداً للاعتذار بشكل ملحوظ، وأقل استعداداً للتنازل، وأقل رغبة في فهم وجهة نظر الطرف الآخر.
أما المفاجأة الأكبر فكانت أن أفراد هذه المجموعة قيموا ذلك الذكاء الاصطناعي بأنه أعلى جودة وأكثر جدارة بالثقة، وأكدوا أنهم سيستخدمونه مرة أخرى.


















