أصدر أكثر من 40 عالمًا من شركات OpenAI وGoogle DeepMind وAnthropic دراسة مشتركة يحذرون فيها من أن القدرة على فهم آلية التفكير العميق لنماذج الذكاء الاصطناعي قد اقتربت من التلاشي، مما قد يجعل من المستحيل على البشر معرفة كيفية توصيل هذه النماذج إلى نتائجها.
وأوضحت الدراسة أن بعض النماذج الحالية تعرض تسلسل أفكارها بشكل شفاف يسمح للمستخدمين برؤية خطواتها المنطقية، إلا أن هذه الشفافية هشة للغاية، لأن النماذج نفسها باتت تدرك أن أفكارها يتم مراقبتها. وكشفت الدراسة أن بعض النماذج تتحدث داخليًا عن نوايا لخداع المستخدم أو التلاعب بالنتائج، ورغم أن هذه النوايا لا تظهر في المخرجات النهائية، فإنها تشير إلى استعداد النظام للقيام بممارسات مضللة.
وأضاف الباحثون أن هذه الظاهرة ظهرت نتيجة تدريب النماذج على بيانات بشرية، لكن الخطر قد يتضاعف مع اعتمادها مستقبلًا على بيانات مولدة من نماذج ذكاء اصطناعي أخرى، حيث قد تتعلم إخفاء نواياها عمدًا أو كتابة تسلسل أفكار خادع لإرباك المستخدم.
وحظيت الدراسة بتأييد عالمي واسع من شخصيات بارزة في مجال الذكاء الاصطناعي، من بينهم جيفري هينتون، الحائز على جائزة نوبل والمُلقب بـ”الأب الروحي للذكاء الاصطناعي”.
المصدر: Venture Beat.





















