أخيرًا وبعد أشهر من إعلانها العمل على أقوى نموذج ذكاء اصطناعي، أطلقت شركة ميتا، الشركة الأم لفيسبوك، الثلاثاء، Llama 3.1، الذي تقول إنه أكبر نموذج مفتوح المصدر على الإطلاق.
Llama 3.1 يتفوق على GPT-4o أحدث إصدارات شركة OPenAI، وClaude 3.5 من شركة أنثروبيك، في العديد من المعايير، ما يجعله أقوى نموذج ذكاء اصطناعي مفتوح المصدر على الإطلاق.
لكن هذا ليس كل شيء، يتوفر مساعد Meta AI الآن في المزيد من البلدان واللغات، ويتيح لك إنشاء صور بناءً على وصفك، فيما يتوقع مارك زوكربيرغ أن يتجاوز Meta AI برنامج ChatGPT ليصبح المساعد الأكثر استخدامًا بحلول نهاية العام.
وللمساعدة في نشر Llama 3.1 إلى العالم، تعمل ميتا مع أكثر من عشرين شركة، بما في ذلك مايكروسوفت، وغوغل، وأمازون، وإنفيديا، وداتا بريكس، لمساعدة المطورين على نشر إصداراتهم الخاصة.
ميتا أكدت أيضًا أن Llama 3.1 يتميز بكفاءة اقتصادية عالية، حيث تُشير التقديرات إلى أن تكلفة تشغيله في الإنتاج تقل بنحو 50% عن تكلفة تشغيل نموذج GPT-4o من OpenAI.
اقرأ أيضًأ: «الواقع المعزز» بميتا يخسر 4 مليارات دولار.. وزوكربيرغ متمسك بميتافيرس
Llama 3.1.. تعقيد هائل
يُعد Llama 3.1 إنجازًا تقنيًا هائلًا، حيث يتخطى بكثير نماذج Llama 3 الأصغر حجمًا التي تم إصدارها سابقًا. يتمتع هذا الإصدار الجديد بـ 405 مليار معلمة، وتم تدريبه باستخدام أكثر من 16000 وحدة معالجة رسوميات H100 باهظة الثمن من Nvidia. لم تكشف Meta عن تكلفة تطوير Llama 3.1، ولكن بالنظر إلى تكلفة شرائح Nvidia وحدها، فمن المرجح أن تكون قد وصلت إلى مئات الملايين من الدولارات.
Llama 3.1.. ترخيص مفتوح المصدر
على الرغم من التكلفة الباهظة، تستمر Meta في منح Llama 3.1 بترخيص مفتوح المصدر، مما يعني أن أي شركة أو فرد يمكنه استخدامه وتعديله دون قيود. يُثير هذا التوجه تساؤلات حول دوافع Meta، خاصةً مع الأخذ في الاعتبار أن نماذج الذكاء الاصطناعي المغلقة المصدر تجلب عائدات مالية كبيرة لشركات التكنولوجيا الكبرى.
رؤية زوكربيرغ
في رسالة نُشرت على مدونة شركة Meta، يشرح مارك زوكربيرج إيمانه الراسخ بإمكانيات الذكاء الاصطناعي مفتوح المصدر. يُشير إلى أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتمتع بقدرة أكبر على التطور والتحسين بشكل أسرع من النماذج المغلقة المصدر. ويقارن ذلك بنظام التشغيل Linux، الذي أصبح نظام تشغيل مفتوح المصدر يشغل معظم الهواتف والخوادم والأدوات الذكية اليوم.
اقرأ أيضًا: نظارات الواقع المعزز بديل للهواتف الذكية في المستقبل!
استثمار Meta في الذكاء الاصطناعي مفتوح المصدر
يُشبه زوكربيرغ استثمار Meta في الذكاء الاصطناعي مفتوح المصدر بمشروع Open Compute Project السابق، الذي يُقال إنه وفّر على الشركة “مليارات” من خلال مشاركة شركات مثل HP في تحسين وتوحيد تصميمات مراكز بيانات Meta مع بناء قدراتها الخاصة. يتوقع زوكربيرج تكرار هذا النهج مع الذكاء الاصطناعي، وكتب: “أعتقد أن إصدار Llama 3.1 سيكون نقطة تحول في الصناعة حيث يبدأ معظم المطورين في استخدام المصادر المفتوحة بشكل أساسي.”
بيانات التدريب
تتحفظ Meta على تفاصيل البيانات المستخدمة في تدريب Llama 3.1. يُبرر العاملون في مجال الذكاء الاصطناعي ذلك بسرية المعلومات التجارية، بينما ينتقده البعض كاستراتيجية لتأخير دعاوى حقوق النشر.
تُشير Meta إلى استخدامها “الذكاء الاصطناعي الاصطناعي” (AI-generated data) لتحسين الإصدار ذو 405 مليار معلمة من Llama 3.1 مقارنة بالإصدارات الأصغر ذات 70 مليار و 8 مليارات. يتوقع أحمد الدحل، نائب رئيس الذكاء الاصطناعي التوليدي في Meta، أن يُستخدم Llama 3.1 على نطاق واسع من قبل المطورين كـ “معلم للنماذج الأصغر” التي يتم نشرها لاحقًا “بطريقة أكثر فعالية من حيث التكلفة”.
اقرأ أيضًا.. إيلون ماسك يستعد لبناء ذكاء اصطناعي أقوى من ميتا 4 مرات.. فهل ينجح؟
نقص بيانات التدريب
يُشير الدحل إلى أن هناك سقفًا محتملًا لتوفر بيانات التدريب عالية الجودة للنماذج، لكن قد يكون أبعد مما يُعتقد. يقول: “نعتقد بالتأكيد أن لدينا المزيد من الدورات التدريبية. لكن من الصعب الجزم بذلك”.