مع تقدم التكنولوجيا بشكل متزايد، أصبح هناك حاجة إلى قوانين تتعامل مع الذكاء الاصطناعي بشكل أكثر وضوحًا. حيث صار الذكاء الاصطناعي مسؤولًا عن العديد من التطورات التي حدثت في السنوات الأخيرة، في كثير من مناحي الحياة، بداية من السيارات ذاتية القيادة إلى الروبوتات التي يمكنها أداء مهام مختلفة. ومع تطور هذه التكنولوجيا المتسارع، كان من الضروري وجود لوائح وقوانين تواجه أي مخاطر محتملة للذكاء الاصطناعي وتطبيقاته.
اقرأ أيضًا.. من هو المحتال.. برنامج ChatGPT أم فرانك هوجربتس؟
منظمات مثل المفوضية الأوروبية ومجلس أوروبا، طوّرت مجموعة من الإرشادات والسياسات لاستخدام الذكاء الاصطناعي في مجالات الرعاية الصحية والنقل والخدمات العامة. تهدف هذه المعايير إلى ضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها مع مراعاة المبادئ الأخلاقية وعدم انتهاك حقوق الأشخاص وحرياتهم. تؤكد الإرشادات أيضًا الحاجة إلى الشفافية والمساءلة عندما يتعلق الأمر بتطوير تطبيقات الذكاء الاصطناعي، فضلاً عن الوصول المتكافئ إلى ما يمكن تسميته بـ”التكنولوجيا للجميع”.
الذكاء الاصطناعي في الولايات المتحدة
في الوقت نفسه، تعمل الحكومات في جميع أنحاء العالم على تطوير قوانينها وأنظمتها الخاصة فيما يتعلق بالذكاء الاصطناعي. البداية في الولايات المتحدة، بعد أن اقترحت وزارة النقل قانونًا يتطلب اختبار المركبات الآلية واعتمادها من قبل منظمة تابعة لجهة خارجية قبل السماح لها بالسير على الطرق العامة.
في الاتحاد الأوروبي، توفر اللائحة العامة لحماية البيانات (GDPR) للمواطنين حقوقًا معينة عندما يتعلق الأمر باستخدام بياناتهم، بما في ذلك الحق في معرفة كيفية استخدام أنظمة الذكاء الاصطناعي، كما يُرجَّح أن يقر الاتحاد الأوروبي العام المقبل قانونًا يهدف إلى كبح جماح عصر الخوارزميات.
حديثًا؛ نشرت الولايات المتحدة الأميركية خطة تشريعية مرتبطة بالذكاء الاصطناعي، حيث أنشأ الكونغرس لجنة الأمن القومي للذكاء الاصطناعي قبل ثلاث سنوات لتحديد كيف يمكن تطوير الأنظمة والتطبيقات الخاصة بالتعلم الآلي لتلبية احتياجات الأمن القومي والدفاع الأميركي.
اقرأ أيضًا.. كيف صار برنامج ChatGPT عنصريًا ومتحيزًا؟
كيف نتجنب مخاطر الذكاء الاصطناعي؟
من المرجح أن تشكل توصيات اللجنة، استراتيجية الذكاء الاصطناعي للحكومة الأميركية في السنوات المقبلة، لا سيما داخل وزارة الدفاع،
وترى لجنة الأمن القومي للذكاء الاصطناعي أن أفضل طريقة للتعامل مع تطبيقات الذكاء الاصطناعي من الناحية القانونية هو التشجيع على الاستثمار في البحث والتطوير حتى يتم التمكن من التعامل مع الأمر بشكل أكثر جدية من قبل الحكومة.
والتعامل ليس فقط بحاجة إلى قانون ليحمي الشأن الداخلي. حيث دعت اللجنة إلى وضع موازنة لا تقل عن 8 مليارات دولار أميركي سنويًا من قبل وزارة الدفاع (البنتاجون)، بالإضافة إلى تمويل فيدرالي بمعدل 32 مليار دولار سنويا حتى عام 2026.
الباحث جان غابريال غاناسيا وضع قواعد للتعامل مع الذكاء الاصطناعي وتطبيقاته، كما ألزم المسؤولين باتباعها حتى نتجنب مخاطر الذكاء الاصطناعي.
اقرأ أيضا.. نمو سوق الذكاء الاصطناعي الإنتاجي إلى 16 مليار دولار بحلول عام 2026
7 طرق للحماية من مخاطر الذكاء الاصطناعي
وبحسب نفس الباحث يمكن تحقيق الحماية من مخاطر تطبيقات الذكاء الاصطناعي من خلال 7 طرق:
- وضع أنظمة لحماية خصوصية الأفراد والحفاظ على الشفافية في جمع البيانات.
- وضع مبادئ توجيهية أخلاقية لضمان استخدام الذكاء الاصطناعي بشكل مسؤول ولأغراض مفيدة فقط.
- تنفيذ قوانين للحماية من إساءة استخدام الذكاء الاصطناعي مثل منع التمييز، وضمان الوصول العادل إلى الفرص.
- وضع سياسات للحد من الأضرار المحتملة للذكاء الاصطناعي، مثل الحد من الاستخدام المحتمل لتقنية التعرف على الوجه للمراقبة.
- وضع معايير واضحة للتطوير المسؤول واعتماد تقنيات الذكاء الاصطناعي والتعلم الآلي، بما في ذلك بروتوكولات الاختبار الصارمة قبل النشر.
- مطالبة الشركات التي تقوم بتطوير تقنيات الذكاء الاصطناعي بتوفير مستوى عالٍ من الأمان وتحمل المسؤولية عن أي آثار سلبية قد تحدثها التكنولوجيا الخاصة بهم على المجتمع.
- توفير التعليم والتدريب على الآثار الأخلاقية والمخاطر وأفضل الممارسات لاستخدام تقنيات الذكاء الاصطناعي من أجل ضمان نشرها واستخدامها بشكل آمن في المجتمع.
ومن الواضح أن تطوير القوانين واللوائح التي تتعامل مع الذكاء الاصطناعي ضروري لضمان استخدامه الآمن والأخلاقي. مع تزايد انتشار نطبيقاته في حياتنا ومجتمعاتنا. كما أنه من المهم أن تواصل الحكومات والمنظمات تطوير وإنفاذ القوانين التي تضمن سلامة وأمن أنظمة الذكاء الاصطناعي، فضلاً عن حقوق المواطنين وحرياتهم.