لم تتوقع شركة OpenAI أن ChatGPT، أن الروبوت الذكي الخاص بها سيعاني من “الكسل”، ولكن هذا ما يحدث بالفعل!
اشتكى العديد من المستخدمين مؤخرًا من أن ChatGPT يرفض إكمال المهام المطلوبة منه، وفي بعض الأحيان يقترح عليهم القيام بذلك بأنفسهم، وهذا السلوك غير المتوقع أثار ضجة كبيرة بين المستخدمين الذين اعتادوا على كفاءة وفعالية ChatGPT.
أسرعت OpenAI بالرد على هذه الشكاوى مؤكدة أنها لم تقم بتحديث نموذج الذكاء الاصطناعي الخاص بها منذ 11 نوفمبر، وأن هذا السلوك “الكسول” غير مقصود، وأشارت الشركة إلى أن سلوك النموذج يمكن أن يكون غير متوقع في بعض الأحيان، وأنها تعمل على إصلاح المشكلة.
we've heard all your feedback about GPT4 getting lazier! we haven't updated the model since Nov 11th, and this certainly isn't intentional. model behavior can be unpredictable, and we're looking into fixing it 🫡
— ChatGPT (@ChatGPTapp) December 8, 2023
وفي تغريدة أخرى أطول بكثير، أوضحت OpenAI أن “تدريب نماذج المحادثة ليس عملية صناعية دقيقة ويمكن أن تؤدي عمليات التدريب المختلفة حتى عند استخدام نفس البيانات، إلى إنتاج نماذج تختلف بشكل ملحوظ في الشخصية وأسلوب الكتابة وسلوك الرفض وأداء التقييم وحتى التحيز السياسي”.
وأضافت الشركة أنها تجري الكثير من الاختبارات قبل إصدار أي نموذج جديد، وأنها تقدر ردود فعل المستخدمين لأنها “تساعدنا على البقاء في صدارة هذه المشكلة الديناميكية للتقييم”.
we’re always striving to make our models more capable and useful for everybody across millions of use cases. so please keep the feedback coming! it helps us stay on top of this dynamic evaluation problem 🙏
— ChatGPT (@ChatGPTapp) December 9, 2023
تأتي هذه التطورات بعد أسابيع قليلة من الدراما الكبيرة التي شهدتها OpenAI، والتي تمثلت في إقالة الرئيس التنفيذي سام ألتمان ثم إعادة تعيينه.