في تطور جديد على صعيد أزمة صور الذكاء الاصطناعي المزيفة التي تنتشر على مواقع التواصل الاجتماعي، تعتزم شركة أوبن إيه آي «OpenAI» صانع برنامج الذكاء الاصطناعي تشات جي بي تي (ChatGPT) بإضافة علامة مائية إلى الصور التي تم إنشاؤها بواسطة برنامج الذكاء الاصطناعي التابع لها دال إي ثري (DALL-E 3).
وفقًا لموقع ذي فيرج، المتخصص في التكنولوجيا، فإن العلامات المائية هي بيانات وصفية تحمل معلومات عن مصدر الصورة وطريقة إنشائها، مشيرًا إلى أن العلامة المائية ستظهر في شكل رمز CR في الزاوية العلوية اليسرى من الصورة، ويمكن التحقق منها عبر مواقع الويب مثل Content Credentials Verify.
اقرأ أيضًا.. ترامب معتقل.. كيف أثارت صور الذكاء الاصطناعي الجدل؟
هل تقضي العلامة المائية على صور الذكاء الاصطناعي المزيفة؟
من جهتها، قالت شركة أوبن إيه آي، إن الهدف من استخدام العلامات المائية هو زيادة مصداقية المعلومات الرقمية وتحديد المحتوى الناتج عن الذكاء الاصطناعي. بما يتماشى مع التوجيهات الرئيسية في الأمر التنفيذي لإدارة بايدن بشأن الذكاء الاصطناعي. كما أنه يدعم جهود التحالف من أجل مصدر المحتوى والأصالة (C2PA)، وهي مجموعة تضم شركات مثل أدوبي (Adobe)، ومايكروسوفت، والتي تعمل على تطوير معايير للعلامات المائية.
اقرأ أيضًا.. في ظل تطور تزييفها المذهل.. كيف تتحق من الصور عبر الإنترنت؟
لكن استخدام العلامات المائية ليس بدون تحديات، وفقًا لـ ذي فيرج فإن OpenAI تقر بأن العلامات المائية يمكن إزالتها بسهولة إما عن طريق الخطأ أو عن قصد. مثلاً، معظم منصات الوسائط الاجتماعية تزيل البيانات الوصفية من المحتوى الذي تم تحميله. كما أن التقاط لقطة شاشة يؤدي إلى حذف البيانات التعريفية. وبالتالي، فإن العلامات المائية ليست طريقة مؤكدة لوقف المعلومات الخاطئة أو التضليلية.
ما هي الخطوات التالية؟
تقول الشركة التي تقف وراء برنامج تشات جي بي تي إنها ستواصل تحسين تقنياتها وتعزيز شفافيتها، مضيفة أنها تعتقد أن اعتماد هذه الأساليب لتحديد المصدر وتشجيع المستخدمين على التعرف على هذه الإشارات هو المفتاح لزيادة مصداقية المعلومات الرقمية. كما تدعو أوبن إيه آي إلى تعاون أوسع بين الشركات والمنظمات والمجتمعات لمواجهة التحديات المتعلقة بالذكاء الاصطناعي.
اقرأ أيضًا.. هل تشعل الصور المزيفة بالذكاء الاصطناعي حرب الروبوتات؟
من جانبها، تسعى C2PA إلى توسيع نطاق مشروعها وإشراك المزيد من الشركاء والمنظمات. تهدف C2PA إلى إنشاء معايير مفتوحة وموحدة للعلامات المائية، والتي يمكن تطبيقها على جميع أنواع المحتوى الرقمي، بما في ذلك النصوص والفيديوهات. تقول C2PA إنها تريد أن تمنح المستهلكين القدرة على فهم مصدر المحتوى وما إذا كان قد تم تعديله أو لا.
صور الذكاء الاصطناعي المزيفة تغزو الإنترنت
وعلى مدار العام الماضي شاهد الملايين من مستخدمي مواقع التواصل الاجتماعي، انتشار صور تم إنتاجها بأدوات الذكاء الاصطناعي تظهر شخصيات مهمة في مواضع تثير الجدل، مثل صور للرئيس الأمريكي السابق دونالد ترامب تزعم تعرضه للاعتقال ومقاومته لقوات الشرطة، والتي أنتجها نظام ميدجورني Midjourney، وسبقتها صور أخرى تزعم أنها للحظة اعتقال رئيس الوزراء البريطاني الأسبق بوريس جونسون، وصور لشخصية ثالثة هي للرئيس الفرنسي مانويل ماكرون تصور أنه يتعرض لمطاردة من قبل متظاهرين وسط دخان هائل.
وقبل إعلان أوبن إيه آي عن استخدام العلامات المائية، عمل علماء على ابتكار روبوتات مضادة بإمكانها كشف هذه الصور المزيفة، فيما يمكن أن نطلق عليه بداية حرب الروبوتات.
وائل عبد المجيد، الباحث في علوم الحاسوب بجامعة كاليفورنيا، في مقابلة مع ساينتفيك أميريكان SCIENTIFIC AMERICAN، في وقت سابق، قال «ستكون المعركة بين أنظمة الذكاء الاصطناعي التي تنتج الصور المزيفة من جهة، وأنظمة الذكاء الاصطناعي الأخرى التي تكشف الصور المزيفة، سباق تسلح»، فيما لا يتوقع عبد المجيد فوز أي من الطرفين.
وبشكل أوضح تحدث عالم الحاسوب في جامعة ويسكونسن ماديسون، يونغ جاي لي، عن فكرة الروبوتات المضادة، بعدما شعر بالتطور المتسارع في روبوتات الذكاء الاصطناعي التوليدية للصور المزيفة، فيقول إن «أفضل طريقة للدفاع عن البشر من الخداع الرقمي عبر الذكاء الاصطناعي أن يكون هناك نظام آخر للذكاء الاصطناعي بإمكانه الكشف عن الصور المصطنعة».
على الجانب الأخلاقي فإن مطوري روبوتات الصور المزيفة يلقون بالمسؤولية على عاتق مستخدمي مواقع التواصل الاجتماعي، حيث نقلت واشنطن بوست عن عماد مستقى الرئيس التنفيذي لشركة Stability AI، قوله إن «المسؤولية تقع على عاتق المستخدمين سواء كانت هذه المسؤولية أخلاقية او معنوية أو قانونية».