انتقد موظفون بشركة غوغل Google، بشكل متكرر في مراسلاتهم داخل الشركة، روبوت الذكاء الاصطناعي غوغل Bard الذي أنتجته الشركة، ووصفوه بأنه مريض بالكذب، ورجوا من الشركة عدم إطلاقه، وفقا لتقرير نشرته وكالة بلومبرج بعد محاورتها 18 موظفًا حاليًا وسابقًا بالشركة واطلاعها على صور لمراسلات داخل الشركة، ونشر عنه موقع Theverge الأربعاء الماضي.
أطلقت شركة غوغل الشهر الماضي روبوت الدردشة الخاص بها غوغل Bard للاستخدام التجريبي، في محاولة لأن تنافس على صدارة سباق تكنولوجيا الذكاء الاصطناعي، وقبل هذا الإطلاق بوقت قصير، طلبت الشركة من موظفين بها اختبار الروبوت، وفقا لما نشره موقع business-standard الخميس الماضي، نقلا عن بلومبرج.
اقرأ أيضًا.. الصندوق الأسود لـ غوغل Bard.. يُعلّم نفسه ويضلل ويراوغ!
تقييمات الموظفين السيئة لـ غوغل Bard
وفقا لـ business-standard و Theverge، الناقلتين عن بلومبرج، فإن أحد الموظفين وصف الروبوت بعد تقييمه بأنه «مريض بالكذب»، وموظف آخر وصفه بأنه «مُحرِج»، وآخر قال إنه عندما سأل الروبوت عن كيفية الهبوط بطائرة، قدم له الروبوت بشكل متكرر نصائح تؤدي إلى تحطمها، وموظف آخر قال إنه عندما سأله بشأن الغوص باستخدام أنابيب التنفس، قدم له الروبوت إجابات من المرجح أن تسبب الإصابة أو الوفاة، وآخر قال إنه «أسوأ من أن يكون عديم الفائدة، أرجوكم لا تطلقوه». ولكن الشركة تجاوزت نتائج تقييم المخاطر الذي تم إجراؤه بواسطة فريق الأمان التابع للشركة والذي أفاد بأن الروبوت غير جاهز للاستخدام العام، وقامت بطرح الروبوت للاستخدام العام بشكل تجريبي في مارس.
اقرأ أيضًا.. Bard وChatGPT.. اعرف 6 اختلافات رئيسية
غوغل Bard .. النمو والأرباح على حساب الأخلاقيات
وأشارت Theverge إلى أنه يبدو أن الشركة تركز على النمو والأرباح أكثر من السلامة، وذلك بناء على ما نشرته بلومبرج، التي صاغت شهادات الموظفين الذين حاورتهم، بأنهم قالوا «يوفر عملاق البحث على الإنترنت الموثوق به – في إشارة لـ Bard – معلومات منخفضة الجودة في سباق لمواكبة المنافسة، ويعطي أولوية أقل لالتزاماته الأخلاقية».
قالت ميريديث ويتاكر، الرئيسة السابقة في غوغل، لبلومبرج، إن «أخلاقيات الذكاء الاصطناعي لم تحظ بالأهمية الكافية» في غوغل، مضيفة لقد أقيل العديد من قادة أخلاقيات الذكاء الاصطناعي في غوغل أو غادروا الشركة في السنوات الأخيرة، وفقا لما نشره موقع Arstechnica الخميس الماضي.
في أواخر عام 2020 وأوائل عام 2021، فصلت الشركة الباحثين تيمنيت جيبرو Timnit Gebru، ومارجريت ميتشيل Margaret Mitchell، بعد أن قاما بتأليف ورقة بحثية تكشف عن عيوب في أنظمة لغة الذكاء الاصطناعي نفسها التي تدعم روبوت المحادثة غوغل Bard. وفقا لـ Theverge.
اقرأ أيضًا.. خطأ فادح في برنامج Bard وجوجل تدفع الثمن!
غوغل تستثمر في فرق أخلاقيات الذكاء الاصطناعي
لكن المتحدث باسم الشركة بريان غابرييل كان له رأي آخر أفصح عنه لـ بلومبرج فيما يتعلق بأخلاقيات الذكاء الاصطناعي، قائلا إن هذه القضية تعد دائما أولوية قصوى للشركة، مضيفا، أن الشركة مستمرة في الاستثمار في الفرق التي تعمل على تطبيق مبادئنا وأخلاقيتنا على تقنياتنا الخاصة بالذكاء الاصطناعي، وفقا لـ Theverge.
جدير بالذكر أن بلومبرج أجرت اختبارات قارنت فيها بين غوغل Bard، وبينج Bing chatbot، و شات جي بي تي ChatGPT، ووجدت أن نظام غوغل دائمًا أقل فائدة ودقة من منافسيه.