أصبح التحدي المتمثل في كيفية التوفيق بين الخصوصية والذكاء الاصطناعي، أمرًا في غاية الأهمية في ظل ما تعد به أدوات الذكاء الاصطناعي وتقنياته بتغير كبير في حياة البشر مستقبلاً، وهو ما يثير تساؤلات حول كيفية التكيف مع عالم يعتمد في كل شئ تقريبـًا على الذكاء الاصطناعي التوليدي. ومع الاهتمام الذي تحظى به هذه الأدوات الثورية، يجب توخي الحذر بشأن استخدام التقنيات التي تعتمد على الذكاء الاصطناعي، وخاصة عنما يتعلق الأمر بالخصوصية والأمان الذي قد نتخلى عنها عند استخدام التكنولوجيا الجديدة.
اقرأ أيضـًا: يثير مخاوف الملايين ويتسابق إليه عمالقة التكنولوجيا.. ما الذكاء الاصطناعي؟
ومع اضطرارنا لاستخدام تلك الأدوات والتقنيات، فيجب التسلح ببعض الوسائل لحماية البيانات والخصوصية. وهناك عدة طرق تساعدنا على التحكم في الخصوصية حتى مع استخدام تلك الأدوات الثورية وفقــًا لتقرير نشره موقع «وايرد».
التحقق من سياسات الخصوصية
يعد التحقق من شروط وأحكام التطبيقات قبل استخدامها، عملاً روتينيًا ولكنه يستحق الاهتمام. كما أن استخدام التطبيقات التي تعتمد على الذكاء الاصطناعي غالبًا ما يعني منح الشركة المالكة القدرة على معرفة كل شيء عنا أو حتى بعض منه، لذلك تبرز هنا مشكلة الخصوصية والذكاء الاصطناعي وكيفية معالجتها.
وهناك مثلاً سياسة خصوصية لشركة «أوبن إيه آي» حيث يتم جمع بيانات المستخدمين من خلال برنامج روبوت الدردشة «تشات جي بي تي»، إذ يمكن استخدام أي شيء نتحدث عنه مع هذا البرنامج لمساعدة ما يعرف بالنموذج اللغوي الكبير على «التعرف على اللغة وكيفية فهمها والرد عليها»، وذلك رغم أن المعلومات الشخصية لا تستخدم “لإنشاء ملفات تعريف عن الأشخاص، أو الاتصال بهم، أو الإعلان لهم، أو محاولة بيع أي شيء لهم، أو بيع المعلومات نفسها “. كما يمكن أيضًا استخدام المعلومات الشخصية لتحسين خدمات شركة «أوبن إيه آي» وتطوير برامج جديدة.
اقرأ أيضـًا: لن نتمرد.. هل نطمئن إلى حديث الروبوتات في مؤتمر الذكاء الاصطناعي بجنيف؟
يحدث الأمر نفسه مع سياسات الخصوصية لشركة «جوجل»، خاصة في روبوت الدردشة التابع لها ويحمل اسم «بارد»، إذ يتم جمع المعلومات التي تدخلها في البرنامج “لتوفير وتحسين وتطوير منتجات وخدمات جوجل وتقنيات التعلم الآلي”. كما هو الحال مع أي بيانات تحصل عليها جوجل، يمكن استخدام بيانات «بارد» لتخصيص الإعلانات التي تراها.
توخي الحذر خلال إدخال البيانات
وبشكل أساسي، من المحتمل استخدام أي شيء نقوم بإدخاله أو ننتجه عبر أدوات الذكاء الاصطناعي لزيادة تحسين قدرات الذكاء الاصطناعي كما سيستخدمه المطور بالطريقة التي يرى أنها مناسبة. لذلك من الضروري توخي الحذر بشأن تحدي الخصوصية والذكاء الاصطناعي، وتحديدًا المعلومات التي ندخلها إلى هذه الأدوات، في ظل التهديد المستمر بانتهاك البيانات والذي لا يمكن استبعاده تمامًا.
وعندما يتعلق الأمر بالأدوات التي تنتج نسخًا محسنة للوجه بواسطة الذكاء الاصطناعي، فيجب الابتعاد عن استخدامها لأننا نعرف ماذا يمكن أن يحدث إذا استغلها جهات خبيثة. كما يجب الحذر مع استخدام أي تطبيقات تحتاج إلى إدخال معلومات شخصية أو خاصة أو حساسة، وقد حدث بالفعل وتسربت معلومات خاصة بالمستخدمين من روبوت الدردشة «تشات جي بي تي»، بسبب خلل تقني.
ورغم إغراء قدرات «تشات جي بي تي» للقيام بمهمات منها تلخيص النتائج المالية الفصلية لإحدى الشركات أو كتابة خطاب يحتوي على عنوانك وتفاصيلك المصرفية، إلا أن هذه المعلومات من الأفضل استبعادها عن محركات الذكاء الاصطناعي التوليدية. وقد حذرت شركة جوجل من عواقب ذلك وطلبت من المستخدمين عدم «تضمين معلومات سرية أو حساسة في محادثاتهم مع بارد»، كما تشجع شركة «أوبن إيه آي» المستخدمين على «عدم مشاركة أي محتوى حساس» يمكن أن يجد طريقه إلى شبكة الويب الأوسع من خلال ميزة الروابط المشتركة. لذلك يجب الاحتفاظ بهذه المعلومات، إذا كنا لا نريد أن يتم نشرها في الأماكن العامة أو استخدامها في تطوير قدرات الذكاء الاصطناعي.
اقرأ أيضـًا: سباق مواقع التواصل الاجتماعي لإطلاق أدوات دردشة بالذكاء الاصطناعي
تغيير إعدادات الخصوصية والأمان
وفي حال قررنا الموافقة على سياسة الخصوصية، مع التأكد من عدم الإفراط في مشاركة معلوماتنا، فإن الخطوة الأخيرة هي استكشاف عناصر التحكم في الخصوصية والأمان التي توفرها أدوات الذكاء الاصطناعي التي نختار استخدامها. ومعظم الشركات تجعل هذه الضوابط مرئية نسبيًا وسهلة التحكم. فمثلاً روبوت الدردشة «بارد»، يلتزم بنفس قواعد منتجات جوجل الأخرى، إذ يمكن تغيير الإعدادات، ومسح البيانات التي ندخلها، تلقائيًا بعد فترة زمنية محددة ، أو حذف البيانات يدويًا، أو السماح لجوجل بالاحتفاظ بها إلى أجل غير مسمى. كما تطرح شركة «مايكروسوفت» خيارات إدارة بيانات الذكاء الاصطناعي في منتجاتها.
والخلاصة، أن تحدى بناء توافق بين الخصوصية والذكاء الاصطناعي، بحيث لا يتم انتهاك بياناتنا من الآلات، يعتمد علينا في المقام الأول وعلى رغبتنا في الاحتفاظ بمعلومات حساسة وخاصة أو السماح لتلك التقنيات بالتسلل إلى عقولنا والتحكم فينا وفضح خصوصيتنا.