قامت شركة OpenAI بهدوء بإزالة عبارة «غير متحيز سياسيًا» من إحدى وثائق سياستها المنشورة حديثًا، مما يُثير تساؤلات حول موقف الشركة من هذه القضية المُثيرة للجدل.
حذف عبارة «غير متحيز سياسيًا» من وثيقة OpenAI
في المسودة الأصلية لـ«المخطط الاقتصادي» لصناعة الذكاء الاصطناعي في الولايات المتحدة، التي نشرها موقع «TechCrunch»، ذكرت OpenAI أن نماذج الذكاء الاصطناعي «يجب أن تهدف إلى أن تكون غير متحيزة سياسيًا بشكل افتراضي». لكن المسودة الجديدة التي تم توفيرها يوم الاثنين حذفت هذه العبارة.
اقرأ أيضًا: الذكاء الاصطناعي في 2025.. ماذا يتوقع قادة التكنولوجيا؟
تبرير OpenAI للتعديل
عند التواصل مع متحدث رسمي باسم OpenAI للتعليق، أوضح أن التعديل كان جزءًا من جهد «لتبسيط» المستند، وأن وثائق OpenAI الأخرى، بما في ذلك «مواصفات النموذج»، «توضح النقطة المتعلقة بالموضوعية». وتهدف مواصفات النموذج، التي أصدرتها OpenAI في شهر مايو، إلى تسليط الضوء على سلوك أنظمة الذكاء الاصطناعي المختلفة للشركة.
جدل «التحيز» في الذكاء الاصطناعي
تشير هذه المراجعة أيضًا إلى الجدل السياسي المُثار حول مفهوم «الذكاء الاصطناعي المتحيز». فقد اتهم العديد من حلفاء الرئيس السابق دونالد ترامب، بمن فيهم إيلون ماسك وداعم العملات المشفرة ديفيد ساكس، روبوتات الدردشة المدعومة بالذكاء الاصطناعي بفرض رقابة على وجهات النظر المحافظة.
اقرأ أيضًا.. كيف نفهم ونستعد لوكلاء الذكاء الاصطناعي؟ 7 مستويات
اتهامات ضد ChatGPT بـ«الانحياز المبرمج»
خص ساكس برنامج ChatGPT التابع لشركة OpenAI بالاتهام بأنه «مُبرمج على الانحياز» وغير دقيق بشأن الموضوعات الحساسة سياسيًا.
ألقى ماسك باللوم على نماذج البيانات التي يتم تدريب الذكاء الاصطناعي عليها وعلى «انحياز» شركات منطقة خليج سان فرانسيسكو. وقال ماسك في أكتوبر الماضي: «إن الكثير من أنظمة الذكاء الاصطناعي التي يتم تدريبها في منطقة خليج سان فرانسيسكو، تتبنى فلسفة الأشخاص من حولهم. لذا، لديك فلسفة منحازة وعدمية – في رأيي – يتم بناؤها في أنظمة الذكاء الاصطناعي هذه».
صعوبة تحقيق «حيادية» الذكاء الاصطناعي
يُعد التحيز في الذكاء الاصطناعي مشكلة فنية معقدة. وقد واجهت شركة xAI التابعة لماسك صعوبة في إنشاء روبوت دردشة لا يُفضل وجهات نظر سياسية على أخرى.
اقرأ أيضًا: تحذيرات من خطر الذكاء الاصطناعي: دعوات لـ«زر إيقاف» ومراقبة ذاتية
دراسة تُشير إلى تحيز ليبرالي في ChatGPT
أشارت دراسة أجراها باحثون في المملكة المتحدة ونُشرت في أغسطس إلى أن ChatGPT لديه تحيز ليبرالي في موضوعات مثل الهجرة وتغير المناخ وزواج المثليين. وأكدت OpenAI أن أي تحيزات تظهر في ChatGPT «هي أخطاء وليست ميزات».
يُظهر تعديل OpenAI لسياستها والجدل المُثار حول «التحيز السياسي» في الذكاء الاصطناعي التحديات المُعقدة التي تواجه تطوير هذه التقنية، وضرورة العمل على ضمان موضوعيتها وعدم تحيزها.