في تحدٍ جديدٍ لانتفاضة هوليوود ضد شركات الذكاء الاصطناعي وعلى رأسها شركة أوبن إيه آي (OpenAI)، صانع أداة الذكاء الاصطناعي Sora كشف تقرير نشرته وكالة بلومبرغ عن «محادثات تمهيدية» يجريها سام ألتمان، الرئيس التنفيذي للشركة مع اللاعبين الرئيسين في الصناعة لدمج أداة الذكاء الاصطناعي Sora في أعمالهم الإبداعية.
ما أداة الذكاء الاصطناعي Sora؟
في فبراير الماضي، أطلقت شركة «أوبن إيه آي»، الشركة التي تقف وراء برنامج الذكاء الاصطناعي الأشهر في العالم، تشات جي بي تي (ChatGPT)، مولد فيديو الذكاء الاصطناعي «سورا»، وهو المولد الذي بإمكانه تحويل النصوص إلى فيديو. وفقًا لشركة «أوبن إيه آي»، «يمكن لـ أداة الذكاء الاصطناعي Sora إنشاء مقاطع فيديو تصل مدتها إلى دقيقة واحدة مع الحفاظ على الجودة والالتزام بطلب المستخدم».
اقرأ أيضًا.. رسميًا.. «OpenAI» تطلق برنامج الذكاء الاصطناعي «Sora» لتحويل النص إلى فيديو
لماذا يخشى صناع السينما أداة الذكاء الاصطناعي Sora؟
يهدد استخدام أدوات الفيديو المدعومة بالذكاء الاصطناعي بقلب صناعة السينما رأسًا على عقب من خلال استبدال الوظائف التي تتراوح بين محترفي المؤثرات البصرية والكتاب وحتى الممثلين، هذا من جهة. من جهة أخرى بعد الكشف عن أداة الذكاء الاصطناعي Sora، أثار ذلك مخاوف بشأن البيانات التي تم استخدامها للتدريب على فيديو عرض الأزياء الذي أنتجته الأداة وظهر في العرض الترويجي لها، فكما هو الحال مع برنامج «تشات جي بي تي»، لم تكن شركة «أوبن إيه آي» شفافة بشأن بيانات تدريب أداة الذكاء الاصطناعي Sora. لكن المبدعون يشكّون بالفعل في أن «سورا» قد تم تدريبه عن طريق نسخ الأعمال الفنية ومقاطع الفيديو دون معرفة أو موافقة منشئيها، وفقًا لتقرير موقع «ماتشبل».
وفي هذا السياق، تواجه شركة «أوبن إيه آي» بالفعل العديد من الدعاوى القضائية المتعلقة بانتهاك حقوق الطبع والنشر بما في ذلك ادعاءات هذه الممارسة مع نماذج اللغة الكبيرة التي تدعم «تشات جي بي تي»، كما نادى الإضراب الأخير الذي نظمته نقابات الكتاب والممثلين في هوليوود إلى فرض قيود تعاقدية على استخدام الذكاء الاصطناعي في أعمال الكتابة. في الوقت نفسه تكافح النقابات أيضًا ضد إنشاء صور رقمية للممثلين يمكن استخدامها إلى الأبد دون أجر.
ومن المقرر أن تصوت نقابة الكتاب في هوليوود قريبًا على اتفاقية مبدئية تمنع استخدام محتوى الذكاء الاصطناعي في الأعمال الفنية، ومع ذلك حصلت نقابة الممثلين، في عقدها مع الاستوديوهات، على وعود بالتعويض والائتمان عن أشكال الذكاء الاصطناعي، لكنها لم تنجح في حظر هذه الممارسة تمامًا. وبالفعل، تسللت الصور التي تتميز بالذكاء الاصطناعي التوليدي إلى أفلام مثل فيلم Late Night with the Devil.
اقرأ أيضًا.. اللغز المحير: كيف تتغلب «أوبن إيه آي» على قيود غوغل في تدريب نماذج الذكاء الاصطناعي؟
ما طبيعة التحركات الأخيرة من قبل شركة «أوبن إيه آي»؟
وفقًا لتقرير وكالة بلومبرغ، فإن سام ألتمان الرئيس التنفيذي لشركة OpenAI يجري محادثات تمهيدية مع صانعي الأفلام وكذلك الاستوديوهات. يقول تقرير بلومبرغ إن «المخرجين والممثلين ذوي الأسماء الكبيرة الذين لم يتم الكشف عن أسمائهم بعد لديهم بالفعل إمكانية الوصول إلى أداة الذكاء الاصطناعي سورا. وهذا جزء من محاولة لتشجيع صانعي الأفلام على دمج مولد الفيديو الجديد المزود بالذكاء الاصطناعي في عملهم».
في الوقت نفسه، كشفت شركة «أوبن إيه آي» عبر مدونتها، عن منشور مليء بما وصفته بـ«الانطباعات الأولى» يشمل مجموعة مختارة من الفنانين وصانعي أفلام والمخرجين والمبدعين. هذا المنشور يحتوي على تعليقات تفيد بقدرات أداة الذكاء الاصطناعي «سورا».
المنشور يتضمن آراء من المخرج بول تريلو، وشركة الإنتاج «شاي كيدز».، والوكالة الإبداعية «نيتيف»، والفنان أوغست كامب، والمديرة الإبداعية جوزفين ميلر، وفنان الواقع المعزز/الواقع الافتراضي دون آلن ستيفنسون. وكما هو متوقع، كانت التعليقات المنشورة على مدونة «أوبن إيه آي» متفائلة للغاية.
اقرأ أيضًا.. سام ألتمان vs إيلون ماسك.. من ينتصر في معركة الذكاء الاصطناعي؟
أشاد المختبرون بقدرة «سورا» على خلق مقاطع فيديو واقعية من النصوص وبدون أي قيود. عبر تريلو عن إعجابه قائلاً: «لا أجد نفسي مقيدًا بالوقت أو الميزانية أو الحاجة إلى إذن من الآخرين، مما يتيح لي التفكير والتجربة بأساليب جريئة ومثيرة».
من ناحية أخرى، أشار المستخدمون على منصة «X» إلى السرد الذي تسيطر عليه «أوبن إيه آي». فقد كتب إد نيوتن ريكس، الرئيس التنفيذي لمنظمة «فيرلي تريند» غير الربحية، معلقًا: «عندما تطلب تعليقات إيجابية حول نموذج الذكاء الاصطناعي التوليدي الخاص بك من مجموعة من المبدعين، بينما تتم عملية التدريب على أعمال الأشخاص دون إذنهم أو تعويضهم».
ويبدو أن «أوبن إيه آي» تستعد لدخول ميدان المنافسة مع هوليوود، وعليها أن تكون مستعدة لمواجهة الدراما السينمائية المتوقعة.