شركة أوبن إيه آي OpenAI، المعروفة بتطوير برنامج تشات جي بي تي ChatGPT، تسعى إلى تحقيق رؤيتها لخلق الذكاء الاصطناعي العام، وهو الذكاء الاصطناعي الذي يمكنه القيام بأي مهمة يمكن للإنسان القيام بها. ولكن هذا الهدف يحمل معه مخاطر كبيرة، فماذا لو أصبح الذكاء الاصطناعي أكثر ذكاءً من البشر وأصبح خارج نطاق السيطرة؟
لهذا السبب، أطلقت شركة أوبن إيه آي OpenAI، فريقًا جديدًا يسمى فريق التأهب، والذي يهدف إلى دراسة وتحديد ومواجهة التحديات والمخاطر التي قد تنجم عن استخدام الذكاء الاصطناعي المتقدم. وسيعمل هذا الفريق على مستوى عال من التخصص والتعاون مع باحثين وخبراء في مجالات مختلفة، مثل الأمن القومي والأخلاق والسياسة.
فريق أوبن إيه آي يركز على 3 مجالات رئيسية
وفقًا لبيان صادر عن شركة أوبن إيه أي OpenAI، فإن هذا الفريق سيركز على ثلاثة مجالات رئيسية: تشمل تحديد المخاطر المحتملة التي قد تشكلها نماذج الذكاء الاصطناعي المتقدمة، سواء كانت ناتجة عن خطأ بشري أو تلاعب متعمد أو سوء استخدام، وتقييم حجم وشدة واحتمالية حدوث هذه المخاطر، وتحديد أفضل السبل للتخفيف منها أو منعها، وأخيرًا التأثير على صانعي القرار والجهات المعنية لاتخاذ إجراءات مناسبة لضمان استخدام آمن ومسؤول للذكاء الاصطناعي.
واختارت شركة أوبن إيه أي OpenAI، شخصية بارزة في مجال الذكاء الاصطناعي لقيادة هذا الفريق، وهو الدكتور ألكسندر مادري، باحث في تكنولوجيا الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، وفقًا لموقع بيزنس إنسايدر.
وسيرافقه في هذه المهمة باحث في تهديدات الأمن القومي ومهندس أبحاث. وستكون هذه المجموعة مسؤولة عن تطوير ستاندارات وإجراءات وأطر حوكمة لضبط سلوك نظام الذكاء الاصطناعي.
اقرأ أيضًا: 7 طرق تساعدك على الوصول المجاني إلى GPT-4.. تعرّف إليها
وذكرت الشركة أن إطلاق شركة أوبن إيه أي OpenAI، لفريق التأهب، يعكس الوعي المتزايد بالمخاطر التي يمكن أن يشكلها الذكاء الاصطناعي، خاصة مع تطوره المتسارع وانتشاره المتزايد، كما يأتي هذا الإجراء في إطار جهود أوسع لتعزيز الثقة والشفافية والمساءلة في مجال الذكاء الاصطناعي، والتي تشمل مبادرات مثل شراكة الذكاء الاصطناعي للخير Partnership on AI ومبادئ أوبن إيه أي OpenAI Principles.
قادة التكنولوجيا يخشون مخاطر الذكاء الاصطناعي
في الوقت الذي تتسارع فيه التطورات في مجال الذكاء الاصطناعي، تزداد أيضًا المخاوف والتحذيرات بشأن مخاطره على مستقبل البشرية. وقد أبدى بعض قادة التكنولوجيا رأيهم وموقفهم من هذا الموضوع، معبرين عن تفاؤل أو قلق أو انتقاد.
من بينهم إيلون ماسك، المؤسس المشارك لشركة أوبن إيه أي OpenAI، والذي غادرها لاحقًا. وقد اشتهر ماسك بتصريحاته السلبية حول الذكاء الاصطناعي، معتبرًا إياه أحد أخطر التهديدات على وجود الإنسان. وقد دعا ماسك إلى تنظيم ومراقبة الذكاء الاصطناعي، والحد من تطوره إلى مستوى يفوق الذكاء البشري.
اقرأ أيضًا.. كيف يؤثر الذكاء الاصطناعي على مهارات الموظفين؟ لا حاجة إليها!
أما سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه أي OpenAI، فقد عبر عن تعاطفه مع المخاوف من الذكاء الاصطناعي، لكنه رأى أن هناك فرصًا كبيرة للاستفادة منه. وقال ألتمان في مقابلة صوتية، إن شركته تسعى إلى خلق ذكاء اصطناعي عام Artificial General Intelligence (AGI)، وهو نوع من الذكاء الاصطناعي يمكنه فهم وتعلم وإبداع أي شيء يمكن للإنسان فعله. وأضاف ألتمان أن هذا الهدف يتطلب تحديات كبيرة في مجالات مثل التضليل والأخلاق والحوكمة.
وفي المقابل، انتقد يان ليكون، كبير علماء الذكاء الاصطناعي في شركة ميتا، التصورات المبالغ فيها حول خطورة الذكاء الاصطناعي. وقال ليكون في مؤتمر علمي، إن فكرة أن الذكاء الاصطناعي سيتحول إلى ذكاء اصطناعي فائق Artificial Super Intelligence (ASI)، أو ذكاء اصطناعي حاسم Artificial Final Intelligence (AFI)، هي غير واقعية وغير علمية. وأشار ليكون إلى أن الذكاء الاصطناعي هو مجرد أداة يمكن استخدامها لأغراض جيدة أو سيئة، وأن المسؤولية تقع على عاتق المطورين والمستخدمين.
أنثروبيك تنافس أوبن إيه آي
وفي سبيل المنافسة في هذا المجال، قامت شركة أنثروبيك (Anthropic)، التي تضم بعض المؤسسين والموظفين السابقين لشركة أوبن إيه أي OpenAI، بإطلاق برنامج الدردشة الآلي كلاود (Claude)، الذي يعتمد على تقنية النماذج اللغوية العميقة.
اقرأ أيضًا.. غوغل بارد: هل فشل منافس «تشات جي بي تي»؟
وزعمت الشركة أن برنامجها يتفوق على برنامج تشات جي بي تي (ChatGPT)، الذي طورته شركة أوبن إيه أي OpenAI، في مجالات مثل الدقة والمصداقية والأمان. وأوضحت الشركة أن برنامجها يستخدم مصادر موثوقة للرد على استفسارات المستخدمين، ويحتوي على آليات لمنع إنتاج ردود ضارة أو مسيئة.