بعد تطور برامج الذكاء الاصطناعي مثل برنامج ChatGPT وبروز تأثيرها الإيجابي على الكثير من المجالات، حذرت الكثير من الدول والمؤسسات من مخاطر هذه البرامج، حتى وصل الأمر ببعض الدول مثل إيطاليا، إلى حذر ChatGPT بشكل قطعي ونهائي في البلاد وفقا لموقع سي أن بي سي.
في مقابل هذه الموجة على برامج الذكاء الاصطناعي، أعلنت أمس شركة OpenAI في بيان أنها مدركة أن أن هناك بعض المخاطر لبرامج الذكاء الاصطناعي لذلك عملت على نشر مدونة خاصة بها، وأفادت OpenAI خلال البيان أن برنامج ChatGPT الخاص بها يتضمن مبادئ الأمان والسلامة للجميع.
ماذا جاء في مدونة ضمان معايير الأمان والسلامة لشركة OpenAI؟
قبل إطلاق أي نظام جديد، أشارت OpenAI إلى أنها تعمل على اجراء اختبارات صارمة وإشراك خبراء خارجيين للحصول على التوصيات، وأنها تعمل على تحسين سلوك نماذج الذكاء الاصطناعي من خلال اعتماد تقنيات التعلم المعزز وأنظمة واسعة للسلامة والمراقبة. فعلى سبيل المثال أفادت الشركة أنها أمضت أكثر من 6 أشهر في العمل لجعل نسخة GPT-4 أكثر أمانًا وتوافقًا مع معايير السلامة قبل إصدارها للجمهور.
اقرأ أيضًا.. لماذا يخاف مؤسس ChatGPT من الذكاء الاصطناعي؟
ويعد مبدأ حماية الأطفال أحد أبرز المجالات التي تركز عليها جهود الشركة. لذلك قررت الشركة بعدم السماح لاستخدام أدوات الذكاء الاصطناعي الخاصة بها من قبل الأفراد الذين تقل أعمارهم عن 18 عامًا. في المقابل، سمحت الشركة أن يتم استخدام برامجها من قبل الأفراد الذين تتراوح أعمارهم بين 13 و18 عامًا بموافقة الوالدين.
كما أفادت OpenAI أنها لا تسمح باستخدام تقنيتها لإنشاء محتوى يحض على الكراهية أو التحرش أو العنف. لذلك أصبحت النسخة الجديدة لبرنامج ChatGPT أقل استجابة بنسبة 82٪ مقارنةً بـ GPT-3.5 فيما يتعلق بالأسئلة والاستفسارات غير المسموح بها والتي تحرض على الكراهية.
وجاء في مدونة ضمان معايير الأمان والسلامة لـ OpenAI، أنه يتم تطوير وتدريب برنامج ChatGPT باستمرار على احترام الخصوصية، من خلال إزالة المعلومات الشخصية من بيانات التدريب، ومن خلال رفض طلبات الحصول على معلومات شخصية للأفراد.
أما فيما يتعلق بتحسين الدقة أفادت OpenAI أنها تحرز تقدمًا من خلال الاستفادة من تعليقات المستخدمين على ردود برنامج ChatGPT التي تم تقييمها على أنها غير صحيحة. وبحسب الشركة يُرجح أن ينتج GPT-4 محتوى واقعي أكثر -أكثر دقة- بنسبة 40٪ من GPT-3.5.
على الرغم من البحث والاختبار أقرت الشركة أنه لا يمكنها التنبؤ بكل الطرق المفيدة التي سيستخدم بها الناس تقنيتها، ولا بكل الطرق التي يسيء بها الناس استخدامها. لهذا السبب تعتقد OpenAI أن التعلم من الاستخدام في العالم الحقيقي، هو عنصر حاسم في إنشاء وإصدار أنظمة ذكاء اصطناعي آمنة بشكل متزايد بمرور الوقت.
اقرأ أيضًا.. كيف سيقود ChatGPT ثورة في قطاع التعليم؟
جدير بالذكر أن العديد من الدول مثل الولايات المتحدة، والمملكة المتحدة، والاتحاد الأوروبي، بدأت عملية تنظيم برامج الذكاء الاصطناعي لضبط تأثيره السلبي في عدة مجالات مثل التعليم والقانون والقضاء والصحافة وغيرها. من جهته طلب إيلون ماسك وشخصيات هامة في عالم التكنولوجيا، من الشركات التي تعمل على تطوير برامج الذكاء، إيقاف عمليات التطوير إلى حين أن يتم تنظيم هذا المجال.