أعرب مهندسو البرمجيات والمطورون والباحثون الأكاديميون عن قلقهم الشديد بشأن جودة النسخ التي تنتجها أداة Whisper من OpenAI، وفقاً لتقرير نشرته وكالة أسوشيتد برس.
وعلى الرغم من أن ميل الذكاء الاصطناعي التوليدي إلى “الهلوسة” – أي تأليف معلومات غير دقيقة أو خيالية – هو موضوع شائع في النقاشات حول هذا النوع من التكنولوجيا، إلا أنه من المفاجئ أن تظهر هذه المشكلة في سياق النسخ الصوتي، حيث يُفترض أن يتبع النص بدقة الصوت الأصلي.
إلا أن الباحثين أفادوا لوكالة الأسوشيتد برس أن أداة Whisper قد أضافت في بعض الأحيان تعليقات ذات طابع عرقي وأحياناً “علاجات طبية” مبتكرة إلى النصوص، وقد يكون هذا الأمر كارثياً بشكل خاص إذا تم اعتماد Whisper في المستشفيات وغيرها من السياقات الطبية.
ووفقاً لباحث في جامعة ميشيغان، وجد أن “الهلوسة” ظهرت في ثماني نسخ من أصل كل عشر نسخ صوتية، كما أشار مهندس تعلم آلي درس أكثر من 100 ساعة من نسخ Whisper إلى أنه وجد مشكلات “الهلوسة” في أكثر من نصفها، كما ذكر أحد المطورين أنه وجد مشاكل مشابهة في معظم الـ 26,000 نسخة التي أنشأها باستخدام Whisper.
وأفاد متحدث باسم OpenAI أن الشركة “تعمل باستمرار على تحسين دقة نماذجها، بما في ذلك تقليل مشكلات الهلوسة”، وأكد على أن سياسة الاستخدام الخاصة بالشركة تمنع استخدام Whisper في “السياقات التي تتطلب اتخاذ قرارات عالية الأهمية”.