أطلقت شركة أوبن إيه آي (OpenAI)، مطور برنامج تشات جي بي تي (ChatGPT) نموذج الذكاء الاصطناعي الجديد «GPT-4o»، الذي يمثل جيلًا ثوريًا لنموذج اللغة الكبير «GPT-4».
جاء الإعلان عن «GPT-4o» بميزاته الجديدة تمهيدًا لإطلاق «GPT-5»، وفق ما ذكرته تقارير صحفية.
خصائص الإصدار الجديد GPT-4o
كشف سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي، عن مزايا مبتكرة ستُضاف إلى «GPT-4o» الجديد في الأسابيع القادمة. من أبرز هذه المزايا، إمكانية الوصول إلى خدمات الصوت والفيديو لكافة المستخدمين، سواء بالمجان أو عبر الاشتراكات المدفوعة، بالإضافة إلى القدرة على التفاعل مع «GPT-4o» باستخدام الصوت والفيديو.
وأعلنت الشركة في بث مباشر أن هذه التحديثات تهدف إلى تسهيل التفاعل بين الإنسان والآلة، وتعميم استخدام الذكاء الاصطناعي، وفقًا لموقع ذي فريج.
خلال عرض توضيحي، أجرت ميرا موراتي، رئيسة قسم التكنولوجيا بالشركة، والتي ظهرت إلى جانب فريق تطوير تشات جي بي تي، محادثة مباشرة مع النسخة الجديدة من نموذج الذكاء الاصطناعي وطلبت منه سرد قصة قبل النوم، وهو ما تم تنفيذه بنجاح.
اقرأ أيضًا: OpenAI تنافس غوغل بمحرك بحث مدعوم بالذكاء الاصطناعي
من المزايا الأخرى لبرنامج «GPT-4o» القدرة على إلقاء النكات بأصوات متنوعة تتراوح بين الطرافة والدراما والغناء، استجابةً لطلب عضو فريق التطوير مارك تشين.
وقال تشين: «لقد شهدنا الإمكانيات الهائلة للتواصل عبر الفيديو والصوت بشكل مباشر بالإضافة إلى فهم المشاعر من نبرة صوت المستخدم».
«GPT-4o».. تحديث ثوري
يُعد برنامج «GPT-4o» من أوبن إيه آي (OpenAI) نقلة نوعية في عالم الذكاء الاصطناعي، حيث يُقدم خصائص ثورية للتفاعل الصوتي والمرئي. هذه الخصائص تُمكِّن المستخدمين من التواصل مع الذكاء الاصطناعي عبر الصوت والفيديو، مما يُسهم في خلق تجارب تفاعلية أكثر طبيعية وانسيابية.
يتميز «GPT-4o» بقدرته على المشاركة في حوارات مباشرة، الرد على عدة متحدثين في آن واحد، وحتى فهم العواطف، مضيفًا بُعدًا جديدًا وغنيًا للمحادثات.
اقرأ أيضُا: شركات التكنولوجيا تنفق المليارات.. من يتصدر سباق الذكاء الاصطناعي؟
التحديث الجديد يشمل تحسينات في الأداء والسرعة لأكثر من 50 لغة، وتعزيزات في الإصدار المكتبي للبرنامج لتحسين تجربة مستخدمي الحواسيب الشخصية.
في الوقت نفسه أكدت أوبن إيه آي (OpenAI) أنها تُدرك التحديات المحتملة المتعلقة بسوء استخدام القدرات الصوتية والمرئية الفورية، وتُؤكد التزامها بالعمل بشكل مسؤول مع الشركاء لضمان التعامل مع هذه التحديات بفعالية.
«GPT-4o» تجربة تفاعلية متقدِّمة
يُقدم برنامج «GPT-4o»من أوبن إيه آي (OpenAI) تجربة تفاعلية متقدمة، حيث يُمكن للبرنامج إجراء حوارات فورية مع المستخدمين وحل المعادلات الرياضية المعروضة على الورق من خلال كاميرا الهاتف، وذلك أثناء محادثة مباشرة وممتعة.
أعلنت أوبن إيه آي (OpenAI) أن هذه الميزات الجديدة، التي ستُطرح قريبًا، ستكون متاحة لمستخدمي الكمبيوتر الشخصي ضمن الخطط المدفوعة.
اقرأ أيضًا: أبل تجري محادثات مع OpenAI لدمج الذكاء الاصطناعي في 16 iPhone
وعرض الفريق كيف يُمكن للمحاضرين الجامعيين والمذيعين استخدام هذه الأدوات لتقديم محتوى تعليمي وترفيهي لجمهورهم، وكيف يُمكن تطبيق هذه البيانات في الوقت الفعلي في مختلف المجالات العملية.
كما ستكون الميزات متاحة لمستخدمي الإصدارات المجانية من تشات جي بي تي ChatGPT، ولكن مستخدمي ChatGPT PRO الذين يُفضلون الاشتراكات الشهرية سيحصلون على قدرة تصل إلى خمسة أضعاف السعة المعتادة.
وستطرأ التحديثات أيضًا على واجهة برمجة التطبيقات (API)، التي من المتوقع أن تكون أسرع مرتين وأكثر كفاءة من حيث التكلفة وأرخص بـ 50 مرة.
«GPT-4o».. ميزات مثيرة للإعجاب
من المميزات المثيرة للإعجاب في تقنية الصوت والفيديو الجديدة أن الذكاء الاصطناعي (AI) استطاع التعرف على ثلاثة مقدمين يتحدثون مع تشات جي بي تي (ChatGPT) في آن واحد، والرد على كل منهم على حدة.
وقد شبه بعض مستخدمي موقع إكس (X)، الذي كان يُعرف سابقًا بتويتر، الإصدار الجديد من تشات جي بي تي (ChatGPT) بفيلم «Her» حيث يصعب التفريق بين الذكاء الاصطناعي العارف بكل شيء وبين الشخص الحقيقي.
اقرأ أيضًا: ميتا وOpenAI يتجهان إلى ذكاء اصطناعي فائق.. فهل تصدق توقعات ماسك؟
كما شهدنا ترجمة فورية من الإيطالية إلى الإنجليزية تلبيةً لطلب أحد المستخدمين على منصة إكس.
وأفادت أوبن إيه آي (OpenAI) بأن «GPT-4o» يواجه تحديات جديدة تتعلق بمعالجة الصوت والصورة في الوقت الفعلي ومنع سوء الاستخدام. وأكدت الشركة استمرارها في التعاون مع الشركاء المختلفين لاستكشاف أفضل الطرق لإطلاق هذه التقنيات في العالم، مع الحرص على توفير الحماية اللازمة.
موعد طرح برنامج «GPT-4o»
ووفقًا لما أعلنت عنه الشركة فمن المقرر أنه سيتم طرح برنامج «GPT-4o» خلال الأسابيع المقبلة، والتي ستتوفر فيه المميزات الجديدة.