في السابع عشر من نوفمبر الماضي، كان سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي (OpenAI)، مطور برنامج تشات جي بي تي (ChatGPT)، خارج الشركة، قبل أن يعود إليها بعد أيام قليلة. وقتها أصدرت الشركة بيانًا، قالت فيه إن الرجل الذي ارتبط اسمه بأشهر برنامج ذكاء اصطناعي في العالم «لم يكن صادقًا في أحاديثه إلى مجلس الإدارة». بعدها بأيام رشحت معلومات تتحدث عن أن الرجل كان يعمل على مشروع سري أُطلق عليها اسم «كيو ستار» (*O)، وهو برنامج يستهدف الوصول إلى الذكاء الاصطناعي الفائق (AGI)، الذي ينظر إليه على أنه يمثل خطرًا على البشرية، إذا لم يخضع لسيطرة البشر.
لكن هذا ليس كل شيء. إذ أن هيلين تونر، عضو مجلس إدارة الشركة السابق التي يشار إليها على أنها أحد شركاء «أحداث نوفمبر العاصفة» بتعبير مجلة «فورتشن» الأميركية، فتحت خزانة الأسرار للمرة الأولى لتكشف عن كواليس ما حدث وقتها. يأتي ذلك بالتزامن مع تراجع إدارة «أوبن إيه آي» عن بند في عقود موظفيها يحظر عليهم التحدث إلى وسائل الإعلام حول أسرار الشركة عند مغادرتها في مقابل احتفاظهم بمزايا مالية محددة، وذلك بعد ضغوط إعلامية مورست عليها، مدفوعة بمنشورات لموظفين سابقين على منصة إكس.. فماذا قالت «تونر»؟
«خلف ظهر ألتمان»
في مقابلة ببودكاست TED AI Show، شاركت «تونر» تحليلها للأحداث التي قالت إنها أدت إلى «فقدان الثقة» في ألتمان، وصولًا إلى قرار مجلس الإدارة بتعيين رئيس تنفيذي جديد بدلًا عنه، وكيف عاد في نهاية المطاف.
«تونر» كشفت عن أن أعضاء مجلس الإدارة، بعد قرارهم بضرورة تعيين رئيس تنفيذي جديد، اعتقدوا أن السبيل الوحيد لتنفيذ ذلك التحرك «خلف ظهر ألتمان». تقول «تونر»: «كان من الواضح لنا أنه إذا علم سام بأي خطوات مناوئة له، فسوف يستخدم كل ما في وسعه لإحباط تحركات مجلس الإدارة ومنعنا من إقالته».
اقرأ أيضًا.. اتفاق «مثير للجدل» لحماية أسرار OpenAI.. ما قصته؟
«تونر» أشارت هنا إلى أن عدم ثقة المجلس في ألتمان نشأت جزئيًا من لحظة امتناعه عن الكشف عن ملكيته لصندوق OpenAI Startup Fund، وكذلك «تقديمه معلومات غير دقيقة حول إجراءات السلامة في الشركة في عدة مناسبات». بالإضافة إلى ذلك، تزعم «تونر» أنها تعرضت لهجوم شخصي من قبل ألتمان بعد نشرها لورقة بحثية أزعجته، حيث «بدأ في نشر الأكاذيب عنها لدى الأعضاء الآخرين في مجلس الإدارة لدفعهم لإزاحتها من المجلس».
«بيئة عمل مسمومة»
بعد أن قدم اثنان من المديرين التنفيذيين شهادتهما المباشرة أمام مجلس الإدارة بخصوص تعاملهما مع ألتمان، وصفا بيئة العمل بأنها «مسمومة» في OpenAI واتهماه بالتسبب في «أذى نفسي». المديران قدما أيضًا دلائل على أن ألتمان كان يمارس «الكذب والتلاعب» في مواقف مختلفة، مما دفع المجلس إلى اتخاذ قرار نهائي بإقالته.
اقرأ أيضًا.. مُدبر الإطاحة بسام ألتمان يغادر.. ماذا يحدث في OpenAI؟
تستخدم «تونر» إطلاق ChatGPT كدليل على غياب السيطرة الفعَّالة من قبل مجلس الإدارة على الشركة، مشيرة إلى أنه عندما تم إطلاق ChatGPT في نوفمبر 2022، لم يكن مجلس الإدارة على علم مسبق. «لقد علمنا بإطلاق ChatGPT عبر تويتر»، كما تقول.
تشير تونر إلى ثلاثة عوامل تجعلها تعتقد أن الضغط لإعادة ألتمان كان شديدًا. تزعم أنه تم تقديم خيارين فقط للموظفين: إما التخلي عن مجلس الإدارة لإعادة ألتمان، أو مواجهة احتمال تدمير الشركة، وبما أن أحدًا لم يرغب في رؤية الشركة تنهار، فقد اختاروا الخيار الأول. وتضيف أن العديد من الأشخاص كانوا يخشون مواجهة ألتمان بعد رؤيته ينتقم من الآخرين.
اقرأ أيضًا.. استقطبه سام ألتمان من غوغل فأطاح به من رئاسة OpenAI.. من هو إيليا سوستيكفر؟
«قضايا قديمة»
لكن بريت تايلور، الرئيس الحالي لمجلس إدارة OpenAI، علّق على ما قالته تونر معبرًا عن خيبة أمله فيما وصفه بـ«استمرار هيلين تونر في إثارة القضايا القديمة».
تايلور، قال إن «لجنة مستقلة من المجلس، بالتعاون مع مكتب المحاماة ويلمر هيل، قامت بمراجعة شاملة للأحداث التي وقعت في نوفمبر»، مؤكدًا «لم تجد اللجنة أي مخاوف تتعلق بسلامة المنتجات أو الأمان أو سرعة التطوير أو الوضع المالي للشركة أو تقاريرها للمستثمرين أو العملاء أو الشركاء».
رئيس مجلس إدارة الشركة الحالي، أضاف أن أكثر من 95% من الموظفين، بما في ذلك القيادة العليا، طالبوا بعودة سام ألتمان كرئيس تنفيذي وباستقالة المجلس السابق، مشددًا على أن التركيز يبقى على التقدم ومتابعة رسالة OpenAI لـ«تحقيق المصلحة العامة للبشرية من الذكاء الاصطناعي».
اتفاق على الإطاحة بسام ألتمان
تونر، من جانبها، قالت إن ألتمان كان يمتلك دائمًا تبريرات للتقليل من شأن مخاوف المجلس، مما أدى إلى تأخير اتخاذ الإجراءات ضده، موضحة «كان سام يجد دائمًا تفسيرات تؤكد حسن نواياه، أو يدعي أنه تم فهمه بشكل خاطئ. لكن في النهاية، بعد سنوات من هذه الطريقة، اتفق 4 من أعضاء مجلس الإدارة على إقالته لأننا لا نستطيع الوثوق بما يقوله سام، وهذا ليس وضعًا عمليًا لمجلس إدارة».
اقرأ أيضًا.. ميرا موراتي.. القوة الخفية وراء ChatGPT بديلًا لسام ألتمان في قيادة OpenAI
تشير تونر إلى أن الوضع تصاعد إلى ذروته بعد أن شاركت في نشر بحث في أكتوبر من العام السابق يسلط الضوء على نهج شركة «أنثروبيك» المنافس لشركة «أوبن إيه آي» حول سلامة الذكاء الاصطناعي، مما أثار غضب ألتمان، قائلة: «بعد نشر البحث، بدأ سام في نشر الأكاذيب عني لدى الأعضاء الآخرين في المجلس ليحاول إزاحتي، وهذا كان مثالًا آخر أضر بثقتنا به في الوقت الذي كنا نناقش فيه بالفعل إمكانية إقالته بجدية».
«اتهامات متكررة بالخيانة»
حسب ما ورد في مجلة «فورتشن»، قد تبدو الانتقادات التي وجهتها تونر لألتمان مجرد تعبير عن استياء شخصي إذا ما تم النظر إليها بشكل منفصل. لكن الاتهامات المتكررة بالخيانة التي أوردتها تونر تأتي في سياق اتهامات مماثلة من جان ليك، الباحث السابق في مجال سلامة الذكاء الاصطناعي، والنجمة سكارليت جوهانسون.
اقرأ أيضًا.. OpenAI متهمة باستنساخ صوت سكارليت جوهانسون.. ما القصة؟
ذكرت نجمة هوليوود أن ألتمان طلب منها استخدام صوتها في منتج الشركة الجديد GPT-4o، الذي يتيح للمستخدمين التفاعل معه، مما يذكر بدورها في فيلم «Her» لكن عندما رفضت، اشتبهت في أنه قد يكون استخدم صوتًا يقارب صوتها أو ربما هو دون إذنها. من جهتها نفت الشركة هذه الادعاءات لكنها وافقت على التوقف المؤقت عن استخدام الصوت.
حل فريق سلامة الذكاء الاصطناعي
من جهة أخرى، كان ليك يشغل منصب الرئيس المشارك للفريق المكلف بتطوير آليات الحماية لضمان سيطرة البشر على الذكاء الاصطناعي المتقدم. لكنه استقال هذا الشهر، معلنًا أن الإدارة لم تكن لديها النية الحقيقية لتخصيص الموارد اللازمة لفريقه كما وعدت، وقد انتقد بشدة سام ألتمان، لينضم بعد ذلك إلى منافس OpenAI الذي أشادت به تونر، وهو Anthropic.
بعد رحيل الأعضاء الرئيسيين لفريق سلامة الذكاء الاصطناعي، قررت OpenAI حل الفريق بأكمله، مما أدى إلى تركيز السلطة في يد ألتمان وحلفائه.
في تعليقها تقول مجلة «فورتشن» إن السؤال يبقى مفتوحًا حول ما إذا كان من الأفضل أن يتولى المسؤولون عن تحقيق الأرباح مهمة تنفيذ آليات الحماية التي قد تعيق الأهداف التجارية.
على الرغم من وجود شكوك بين بعض الموظفين، إلا أن قلة قليلة فقط خارج الدائرة الداخلية للشركة اختارت الإفصاح عنها. وفقًا لتقرير نُشر مؤخرًا في Vox، كان السبب الرئيسي وراء هذا التحفظ هو شرط غير تقليدي في عقودهم ينص على أن أي تصريحات مسيئة قد تؤدي إلى فقدان حقوق الملكية في الشركة، التي قد تكون واحدة من أكثر الشركات الناشئة قيمة في العالم.
يقول الموظفون: «إذا كانت هناك أي شركة يمكنها أن تمارس الرقابة الذاتية على نفسها بنجاح أثناء تطوير أنظمة الذكاء الاصطناعي المتقدمة بطريقة آمنة وأخلاقية، فكان يجب أن تكون OpenAI. لكن استنادًا إلى تجربتنا، نعتقد أن الرقابة الذاتية لا يمكن الوثوق بها مع ضغوط حوافز الربح».