أحدث برنامج تشات جي بي تي (ChatGPT)، وروبوتات الدردشة المدعومة بالذكاء الاصطناعي، ثورة كبيرة في مختلف المجالات؛ نظرًا لقدرتها على توليد النصوص والصور بناء على مطالبات من المستخدمين باللغة الطبيعية.
ومع ذلك فقد ظلت آلية عمل روبوتات الدردشة علامة استفهام لأغلب أولئك الذين يريدون فهم كيفية عمل هذه الروبوتات، فكيف تعمل روبوتات الدردشة؟ وما المشكلات التي تعانيها؟
كيفية عمل روبوتات الدردشة؟
تعتمد روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل تشات جي بي تي (ChatGPT)، على نماذج لغوية كبيرة في عملها. يتم تدريب هذه النماذج على البيانات المقدمة من البشر، الذين يوجهون النظام لإصدار الاستجابات المناسبة والدقيقة. ومع ذلك، كيف تحدد الروبوتات ما ستقوله بعد ذلك؟
تستخدم روبوتات الدردشة عمليات حسابية وتحليلات مختلفة لإنتاج الجمل السليمة نحويًا وذات إيقاع طبيعي. بالأساس، فإن برنامج الدردشة الآلي هو آلة تعتمد على الحسابات الرياضية والتحليل الإحصائي لتوليد الكلمات المناسبة وترتيبها في جمل صحيحة.
اقرأ أيضًا.. أمازون تدخل سباق الذكاء الاصطناعي: هل تتفوق على غوغل ومايكروسوفت؟
تتم دمج هذه العمليات مع النماذج اللغوية الكبيرة التي تحتوي على كمية هائلة من المعلومات، ثم يتم تدريب هذه النماذج على التفاعل مع المستخدمين البشريين بطريقة طبيعية، ويتم تحسين أداء روبوتات الدردشة من خلال تجارب المستخدمين والتعلم المستمر.
على سبيل المثال، شركة أوبن إيه أي (OpenAI)، التي تطور تشات جي بي تي (ChatGPT)، تعتمد على مجموعة متنوعة من المصادر لتدريب نماذجها اللغوية، بما في ذلك المستخدمين والمواد المرخصة. يتم تجميع هذه المعلومات واستخدامها في تطوير روبوتات الدردشة لتحسين أدائها وتعزيز قدراتها في الاستجابة لاحتياجات المستخدمين.
ما هي نماذج اللغة؟ وكيف تعمل؟
تعتمد روبوتات الدردشة المستندة إلى الذكاء الاصطناعي، مثل تشات جي بي تي (ChatGPT)، بشكل أساسي على نماذج لغوية كبيرة تعرف باسم النماذج اللغوية الكبيرة LLMs (Large Language Models). تُعد هذه النماذج برامج ذكية يتم تدريبها على كميات هائلة من النصوص المستمدة من الكتابات والمعلومات المنشورة عبر الإنترنت، والتي يتم إنتاجها بشكل عام من قبل البشر.
تجمع هذه النماذج في أنظمة تدريب مترابطة حيث يتم تدريبها على سلاسل من الكلمات وتتعلم أهمية الكلمات في تلك السلاسل. يُشار إلى هذه العملية بـ «المعرفة المتشربة»، حيث يتعلم النماذج أنماط الكلام وكيفية استخدام الكلمات وتوصيلها معًا لتكوين محتوى يشبه بشكل كبير المحتوى الذي ينتجه البشر، حسبما نقل الخبراء لموقع بيزنس إنسايدر.
تتضمن روبوتات الدردشة شات بوت (Chatbot)، وهو برنامج محادثة يرتبط بسلاسل النماذج اللغوية. يمكنك أن تطرح الأسئلة على الشات بوت لتتم عملية الربط بين النماذج ويتم إنتاج سلسلة من الكلمات تحتوي على معلومات حقيقية وتشبه إجابات البشر.
اقرأ أيضًا.. سباق الذكاء الاصطناعي: غوغل تنافس أوبن إيه آي بـ«Imagen»
تُدرب جميع شات بوت عن طريق البشر على كيفية تقديم الإجابات المناسبة والتعامل مع الرسائل الضارة. يقوم مدربو بيانات الذكاء الاصطناعي، الذين يعملون في شركات مثل إنفيزبيل تكنولوجيز «Invisible Technologies»، وهي شركة تعمل على تدريب تشات جي بي تي (ChatGPT)، بتحديد الأخطاء الواقعية والأخطاء الإملائية والنحوية والمضايقات أثناء اختبار استجابات برامج الدردشة الآلية.
وفقًا لكريستيان هاموند، أستاذ علوم الكمبيوتر في جامعة نورث وسترن ومدير مركز الجامعة لتعزيز سلامة الذكاء الاصطناعي، يتم استخدام خوارزميات لاختيار الجملة الأكثر احتمالًا للرد على الأسئلة المطروحة لبرنامج الدردشة الآلي، ويلي ذلك اختيار أفضل الإجابات الممكنة في جزء من الثانية، ثم يتم تقديم إجابة واحدة عشوائيًا من بين تلك الاختيارات. وبالتالي، قد يؤدي طرح نفس السؤال بشكل متكرر إلى إجابات مختلفة قليلاً.
علاوة على ذلك، يمكن لروبوتات الدردشة تقسيم الأسئلة إلى أجزاء متعددة والإجابة على كل جزء على التوالي، تمامًا كما يفعل الشخص عند التفكير في السؤال. على سبيل المثال، إذا طُلب من برنامج الدردشة أن يذكر اسم رئيس أميركي يحمل الاسم الأول للممثل الرئيسي في فيلم «كاميلوت»، فإنه سيعثر أولاً على اسم الممثل ويقدمه كإجابة (ريتشارد هاريس). ثم يستخدم هذه الإجابة للبحث عن سؤالك الأساسي ويقارنها بأسماء رؤساء الولايات المتحدة، حتى يقدم لك الإجابة الأقرب، وهي ريتشارد نيكسون.
المشكلات في روبوتات الدردشة
وفقًا للاختصاصيين، تواجه روبوتات الدردشة المدعومة بالذكاء الاصطناعي مجموعة من المشكلات. واحدة من أبرز هذه المشكلات تنشأ عندما يُطرح على الروبوتات أسئلة لا يتوفر لديها إجابات عنها، حيث أن نماذجها اللغوية لا تحتوي على تلك المعلومات. ولأن هذه الروبوتات غير مدربة على رفض الإجابة، فإنها تحاول استنتاج إجابة بناءً على المعلومات التي تعرفها وقد تقدم تخمينات. ولكن المشكلة الأكبر تكمن في أنها لا تُخطِر المستخدمين بأنها تخمن، بل قد تقدم تلك المعلومات على أنها حقائق.
اقرأ أيضًا: غوغل بارد: هل فشل منافس «تشات جي بي تي»؟
تُشار إلى حالة الروبوتات الدردشة عندما تُنشئ معلومات وهمية وتقدمها للمستخدم على أنها حقائق بمصطلح «الهلوسة». وأظهر الخبراء أن احتمالية حدوث الهلوسة في نموذج تشات جي بي تي (ChatGPT) موجودة جزئيًا، ولذا يُحث المستخدمون على أخذ الحيطة والحذر عند استخدام البرنامج.
في دراسة حديثة أجرتها مجموعة استشارية في بوسطن، تبين للباحثين أن المستخدمين الذين يعتمدون على تشات جي بي تي (ChatGPT) في العمل قد يظهرون أداءً أقل في بعض المهام إذا اعتمدوا على إخراجات الشات بوت دون التحقق منها للبحث عن الأخطاء والتأكد من صحة المعلومات.
وقال ويليام وانغ، الأستاذ المساعد في علوم الكمبيوتر بجامعة كاليفورنيا: «هذا ما نسميه المعرفة عن المعرفة أو ما وراء المعرفة»، وهو يشير إلى محاولة الحصول على معلومات خارج نطاق المعرفة الفعلية للروبوت.