تمكنت أنظمة الدردشة الآلية من توليد الصور المزيفة بالذكاء الاصطناعي، وبات من الصعب عمليًا اكتشافها والتحقق منها مع الانتشار الفيروسي لها على شبكات التواصل الاجتماعي.
ربما رأينا صورًا للرئيس السابق دونالد ترامب وهو يتعرض للاعتقال، وفي الحقيقة لم يحدث ذلك، بل وربما أيضا رأينا صورًا لرئيس الوزراء البريطاني الأسبق بوريس جونسون لحظة القبض عليه، وهي صور أيضًا مغايرة للحقيقة، الحقيقة الوحيدة هي إن الصور المولدة بأنظمة الذكاء الاصطناعي باتت تنتشر بشكل فيروسي وأصبح من الصعب تمييزها، نظرًا لقوة البرامج التي تنتجها، والجودة الكبيرة التي تجعلها تكاد تكون مقنعة بما يكفي لخداع المراقب الذي لا يتخذ حذره.
اقرأ أيضا.. الصور المزيفة بالذكاء الاصطناعي.. فوضى التضليل
تقدم مذهل في الصور المزيفة بالذكاء الاصطناعي
ستيفانو آندريان، مدون ورئيس تنفيذي لشركة بوم سميثز Boomsmiths لريادة الأعمال، نشر عبر حسابه في لينكد إن، الأسبوع الماضي، أحد الصور المزيفة بالذكاء الاصطناعي تظهر رئيس الوزراء البريطاني الأسبق بوريس جونسون وهو يتعرض للاعتقال على يد قوات من الشرطة.
يقول ستيفانو: قد تكون الصور المزيفة بالذكاء الاصطناعي التي نراها لجونسون مروعة، لكنها مزيفة، بل تم صنعها في بضع ثوانٍ باستخدام أنظمة الذكاء الاصطناعي شات جي بي تي ChatGPT وميد جيورني Midjourne، مضيفا أن هذه الصورة التي تبدو حقيقية لإلقاء القبض على بوريس جونسون هي مثال رئيسي على كيفية التلاعب بالحقائق الرقمية التي تشوه الواقع.
ستيفانو استكمل: من المهم أن نتذكر أنه في عام 2023 ليس كل شيء على الإنترنت كما يبدو حقيقيًا تمامًا، مثل الصور المزيفة بالذكاء الاصطناعي لترامب وهو يتعرض للاعتقال الأسبوع الماضي، بل من السهل الوقوع فريسة لمعلومات خاطئة أو ترك تحيزاتنا تشوش على حكمنا، خاصة إذا كنت تريد تصديق شيء ما، منوها إلى أنه لمنع ذلك، كن يقظًا دائمًا وانتقد المحتوى الذي تستهلكه.
وفيما يبدو أنه بات من الصعب تمييز الصور المزيفة بالذكاء الاصطناعي، نشر موقع ساينتيفك أميريكان تقريرًا سلط الضوء على الإمكانيات المذهلة لأنظمة الذكاء الاصطناعي في إنتاج الصور المزيفة، حيث نقل عن خبراء قولهم إنه أصبح من المستحيل تمييز الصور المزيفة بالذكاء الاصطناعي، مشيرين إلى أن نظمًا مثل Midjourney V5 حققت قفزات في قدرات توليد الصور.
يأتي ذلك على عكس الماضي، حين كانت نظم الذكاء الاصطناعي تعاني في الماضي من محاولات تقليد الأيدي البشرية فتنتج أطرافًا مشوهة بها أصابع زائدة، كما أنه كان بإمكان المشاهدين المتشككين أن يلاحظوا الصور التي قد تم إنشاؤها بواسطة نظام الذكاء الاصطناعي، كما كان كل مولد صور بالذكاء الاصطناعي يختلف في طبيعة الصور التي ينتجها.
اقرأ أيضًا.. بينهم إيلون ماسك.. دعوات لوقف تجارب الذكاء الاصطناعي
أدوات التحقق من الصور عبر الإنترنت
وكشف ستيفانو آندريان عن نصائح للمساعدة في التحقق من الصور المزيفة بالذكاء الاصطناعي عبر الإنترنت، من بينها أداة البحث العكسي عن الصور التي يقدمها Google للعثور على أصل الصورة ومعرفة ما إذا كان قد تم التلاعب بها أو إعادة توجيهها، كما أنه بالإمكان التحقق من خلال المواقع ذات السمعة الطيبة مثل Snopes و FactCheck.org اللذين يقدمان مساعدات في تأكيد صحة قصة أو صورة.
كما نصح بما وصفه بالتحقق من خلال الإسناد، أي التحقق من مصادر متعددة ومقارنة التغطية للحدث، لتحديد مصداقية المعلومات المقدمة، مشيرا إلى أنه في عصر الخداع الرقمي، يقع على عاتق كل واحد منا مسؤولية أن يكون مستهلكًا مطلعًا ومسؤولًا.
وبعيدا عن أدوات جوجل للكشف عن الصور المزيفة بالذكاء الاصطناعي والتحقق منها، فإن الخبراء يرون أنه من الممكن العمل على إنشاء نظام ذكاء اصطناعي مضاد لبرامج إنتاج الصور المزيفة بالذكاء الاصطناعي.
وبحسب ساينتيفك أميريكان فإن أفضل وسيلة للدفاع عن البشر ضد الخداع الرقمي من قبل نظام الذكاء الاصطناعي قد يكون نظام آخر للذكاء الاصطناعي مدرب على اكتشاف الصور المصطنعة.
اقرأ أيضًا .. ترامب معتقل.. كيف أثارت صور الذكاء الاصطناعي الجدل؟
يقول الخبراء إنه مع تطور توليد الصور المزيفة بالذكاء الاصطناعي، فإن الخوارزميات مجهزة بشكل أفضل من البشر لاكتشاف بعض البصمات الدقيقة على مستوى البكسلات للخلق الروبوتي.
ويعمل إنشاء تلك البرامج المحقِّقة، بنفس طريقة أي مهمة أخرى لتعلم الآلة، وفقًا لما يقوله يونغ جاي لي، عالم حاسوب في جامعة ويسكونسن–ماديسون، الذي يرى أنه من الممكن تجميع مجموعة بيانات من الصور الحقيقية، وتجميع أيضًا مجموعة بيانات من الصور المصطنعة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، ثم يمكن تدريب نموذج التعلم الآلي للتمييز بين الصورتين.
لكن خبراء يرون أن هذه الأنظمة أيضا لها عيوب كبيرة، فمعظمها مدرب على الصور من مولد ذكاء اصطناعي محدد وغير قادر على التعرف على الصور المزيفة بالذكاء الاصطناعي التي تم إنتاجها بواسطة خوارزميات مختلفة.