أظهرت وثيقة أن مجموعة الدول الصناعية السبع سوف تقر مدونة سلوك طوعية للشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي المتقدمة، وذلك في إطار جهودها لتحقيق التوازن بين تعزيز الابتكار وضمان السلامة والأمن.
تمثل المدونة نتيجة للتعاون بين زعماء مجموعة السبع، الذين اجتمعوا في مايو في منتدى وزاري أطلق عليه اسم «هيروشيما. عملية الذكاء الاصطناعي»، بحسب رويترز.
الدول الكبرى تسعى لتشجيع الحد من مخاطر الذكاء الاصطناعي
وتشمل أنظمة الذكاء الاصطناعي المتقدمة التي تستهدفها المدونة الأنظمة التي تستخدم نماذج أساسية مثل شبكات عصبية عميقة، أو التي تستخدم تقنيات توليدية والتي يمكن أن تحاكي أو تؤثر على سلوك البشر.
وتهدف المدونة إلى تعزيز الذكاء الاصطناعي الآمن والجدير بالثقة في جميع أنحاء العالم وفقًا للوثيقة التي نشرتها مجموعة السبع، والتي تضم كندا وفرنسا وألمانيا وإيطاليا واليابان وبريطانيا والولايات المتحدة، بالإضافة إلى الاتحاد الأوروبي.
اقرأ أيضًا.. أوبن إيه آي تشكل فريقًا لمواجهة مخاطر الذكاء الاصطناعي.. فما دوره؟
التحقق من المخاطر والشفافية والأمان لأنظمة الذكاء الاصطناعي
تحث المدونة، التي تضم 11 نقطة، الشركات على اتخاذ خطوات لتحديد وتقدير والحد من المخاطر المرتبطة بأنظمة الذكاء الاصطناعي التي يطورونها أو يستخدمونها، بدءًا من مرحلة التصميم إلى مرحلة التشغيل.
كما تطالب المدونة بإجراء اختبارات دورية لأداء وسلامة أنظمة الذكاء الاصطناعي، وإبلاغ المستخدمين عن قدراتها وقيودها، والإبلاغ عن حالات سوء استخدام أو حادث محتمل.
بالإضافة إلى ذلك، تشجع المدونة على زيادة الشفافية من خلال نشر تقارير عامة حول طبيعة وغرض أنظمة الذكاء الاصطناعي، وكذلك الاستثمار في الضوابط الأمنية القوية لمنع الاختراق أو التلاعب.
كما تشدد المدونة على تعزيز التعاون بين مجموعة السبع في مجال المعايير التقنية للذكاء الاصطناعي على المستوى الدولي.
وفي منشور عبر منصة إكس، قال رئيس الوزراء الياباني، فوميو كيشيدا، إن قادة مجموعة السبع رحبوا بالمبادئ التي جاءت في مدونة سلوك الذكاء الاصطناعي، الموجهة للمؤسسات التي تعمل على تطوير أنظمة الذكاء الاصطناعي المتقدمة، مؤكدة استمرار العمل من أجل وضع القواعد الدولية للذكاء الاصطناعي التوليدي.
G7 Leaders issued the Statement on Hiroshima AI Process, welcoming the Hiroshima Process International Guiding Principles and the Hiroshima Process Code of Conduct for organizations developing advanced AI systems. We continue to work for international rulemaking of generative AI.
— 岸田文雄 (@kishida230) October 30, 2023
توافق بين الدول الكبرى حول إدارة الذكاء الاصطناعي
وتعكس المدونة التوافق بين الدول الكبرى حول كيفية إدارة التكنولوجيا الناشئة، وسط مخاوف تتعلق بالخصوصية والمخاطر الأمنية والأثر الاجتماعي للذكاء الاصطناعي.
وقالت فيرا جوروفا، رئيسة الشؤون الرقمية في المفوضية الأوروبية، في حديثها في منتدى حول إدارة الإنترنت في كيوتو باليابان في وقت سابق من هذا الشهر، إن مدونة قواعد السلوك كانت أساسًا قويًا لضمان السلامة وأنها ستكون بمثابة جسر حتى يتم وضع التنظيم.
وكان الاتحاد الأوروبي في طليعة تنظيم التكنولوجيا الناشئة من خلال قانون الذكاء الاصطناعي، في حين اتخذت اليابان والولايات المتحدة ودول جنوب شرق آسيا نهجًا أكثر عدم التدخل من الكتلة لتعزيز النمو الاقتصادي.
اقرأ أيضًا.. مخاطر الذكاء الاصطناعي تجمع المتنافسين على طاولة واحدة.. هل يتوصلون لحلول؟
أوبن إيه آي تشكل فريقا لمواجهة مخاطر الذكاء الاصطناعي
من جهة أخرى، شكلت شركة أوبن إيه آي OpenAI، مطور برنامج تشات جي بي تي، الأكثر شعبية في العالم، فريقًا جديدًا يسمى فريق التأهب، والذي يهدف إلى دراسة وتحديد ومواجهة التحديات والمخاطر التي قد تنجم عن استخدام الذكاء الاصطناعي المتقدم. وسيعمل هذا الفريق على مستوى عال من التخصص والتعاون مع باحثين وخبراء في مجالات مختلفة، مثل الأمن القومي والأخلاق والسياسة.
وفقًا لبيان صادر عن شركة أوبن إيه أي OpenAI، فإن هذا الفريق سيركز على ثلاثة مجالات رئيسية: تشمل تحديد المخاطر المحتملة التي قد تشكلها نماذج الذكاء الاصطناعي المتقدمة، سواء كانت ناتجة عن خطأ بشري أو تلاعب متعمد أو سوء استخدام، وتقييم حجم وشدة واحتمالية حدوث هذه المخاطر، وتحديد أفضل السبل للتخفيف منها أو منعها، وأخيرًا التأثير على صانعي القرار والجهات المعنية لاتخاذ إجراءات مناسبة لضمان استخدام آمن ومسؤول للذكاء الاصطناعي.
واختارت الشركة، شخصية بارزة في مجال الذكاء الاصطناعي لقيادة هذا الفريق، وهو الدكتور ألكسندر مادري، باحث في تكنولوجيا الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، وفقًا لموقع بيزنس إنسايدر.
وسيرافقه في هذه المهمة باحث في تهديدات الأمن القومي ومهندس أبحاث. وستكون هذه المجموعة مسؤولة عن تطوير ستاندارات وإجراءات وأطر حوكمة لضبط سلوك نظام الذكاء الاصطناعي.
اقرأ أيضًا.. مخاطر الذكاء الاصطناعي «تعادل قنبلة نووية».. رسالة مفتوحة من الخبراء
قادة التكنولوجيا يعبرون عن مخاوفهم من تطور الذكاء الاصطناعي
وكان بعض قادة التكنولوجيا عبروا عن مخاوفهم من تطور الذكاء الاصطناعي، من بينهم إيلون ماسك، المؤسس المشارك لشركة أوبن إيه أي OpenAI، والذي غادرها لاحقًا. وقد اشتهر ماسك بتصريحاته السلبية حول الذكاء الاصطناعي، معتبرًا إياه أحد أخطر التهديدات على وجود الإنسان. وقد دعا ماسك إلى تنظيم ومراقبة الذكاء الاصطناعي، والحد من تطوره إلى مستوى يفوق الذكاء البشري.
أما سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه أي OpenAI، فقد عبر عن تضامنه مع المخاوف من الذكاء الاصطناعي، لكنه رأى أن هناك فرصًا كبيرة للاستفادة منه. وقال ألتمان في مقابلة، إن شركته تسعى إلى تطوير ذكاء اصطناعي عام Artificial General Intelligence (AGI)، وهو نوع من الذكاء الاصطناعي يمكنه فهم وتعلم وإبداع أي شيء يمكن للإنسان فعله. وأضاف ألتمان أن هذا الهدف يواجه تحديات كبيرة.
وفي المقابل، انتقد يان ليكون، كبير علماء الذكاء الاصطناعي في شركة ميتا، «التصورات المبالغ فيها حول خطورة الذكاء الاصطناعي». وقال ليكون في مؤتمر علمي، إن فكرة أن الذكاء الاصطناعي سيتحول إلى ذكاء اصطناعي فائق Artificial Super Intelligence (ASI)، أو ذكاء اصطناعي حاسم Artificial Final Intelligence (AFI)، هي غير واقعية وغير علمية. وأشار ليكون إلى أن الذكاء الاصطناعي هو مجرد أداة يمكن استخدامها لأغراض جيدة أو سيئة، وأن المسؤولية تقع على عاتق المطورين والمستخدمين.