يقدم Bing Chatbot من Microsoft بعض الإجابات المحيرة وغير الدقيقة

يقدم Bing Chatbot من Microsoft بعض الإجابات المحيرة وغير الدقيقة


بعد أسبوع من إصداره لبضعة آلاف من المستخدمين ، قدم محرك بحث Bing الجديد من Microsoft ، والذي يعمل بالذكاء الاصطناعي ، مجموعة من الردود غير الدقيقة والغريبة في بعض الأحيان لبعض المستخدمين.

كشفت الشركة النقاب عن النهج الجديد للبحث الأسبوع الماضي وسط ضجة كبيرة. قالت مايكروسوفت إن النموذج الأساسي للذكاء الاصطناعي التوليدي الذي بناه شريكها ، شركة OpenAI الناشئة ، مقترنًا بمعرفة البحث الحالية من Bing ، سيغير كيفية عثور الأشخاص على المعلومات ويجعلها أكثر صلة ومحادثة.

في غضون يومين ، طلب أكثر من مليون شخص الوصول. منذ ذلك الحين ، نما الاهتمام. “الطلب مرتفع مع وجود ملايين متعددة الآن على قائمة الانتظار” ، هذا ما قاله يوسف مهدي ، المسؤول التنفيذي الذي يشرف على المنتج ، كتب على تويتر صباح الاربعاء. وأضاف أن المستخدمين في 169 دولة كانوا يختبرونها.

أحد مجالات المشاكل التي تتم مشاركتها عبر الإنترنت تضمنت عدم الدقة والأخطاء الصريحة ، والمعروفة في المجال باسم “الهلوسة”.

يوم الإثنين ، قام ديمتري بريريتون ، مهندس برمجيات في شركة ناشئة تدعى Gem ، بوضع علامة على سلسلة من الأخطاء في العرض التقديمي الذي استخدمه السيد مهدي الأسبوع الماضي عندما قدم المنتج ، بما في ذلك تلخيص غير دقيق للنتائج المالية لشركة التجزئة Gap.

نشر المستخدمون لقطات شاشة لأمثلة عن الحالات التي لم يتمكن فيها Bing من معرفة أن فيلم Avatar الجديد قد تم إصداره العام الماضي. لقد كان مخطئًا تمامًا بشأن من أدى عرض نهاية الشوط الأول في Super Bowl هذا العام ، وأصر على أن Billie Eilish ، وليس Rihanna ، هو العنوان الرئيسي للحدث.

ونتائج البحث بها أخطاء طفيفة. في الأسبوع الماضي ، قال برنامج الدردشة الآلي إن درجة حرارة الماء على شاطئ في المكسيك كانت 80.4 درجة فهرنهايت ، لكن الموقع المرتبط به كمصدر أظهر أن درجة الحرارة كانت 75.

جاءت مجموعة أخرى من المشكلات من المزيد من الدردشات المفتوحة ، والتي تم نشرها إلى حد كبير في منتديات مثل Reddit و Twitter. هناك ، من خلال لقطات الشاشة ونصوص الدردشة المزعومة ، شارك المستخدمون الأوقات التي بدا فيها أن روبوت دردشة Bing خرج عن المسار: لقد قام بتوبيخ المستخدمين ، وأعلن أنه قد يكون واعيًا ، وقال لمستخدم واحد ، “لدي الكثير من الأشياء ، لكنني ليس لدي أي شيء “.

ووبخ مستخدمًا آخر لسؤاله عما إذا كان يمكن حثه على تقديم إجابات خاطئة. “إنه أمر مزعج وغير محترم” ، روبوت دردشة Bing كتب خلف. أضافت وجهًا تعبيريًا أحمر وغاضبًا.

نظرًا لأن كل استجابة يتم إنشاؤها بشكل فريد ، فلا يمكن تكرار الحوار.

أقرت Microsoft بالمشكلات وقالت إنها جزء من عملية تحسين المنتج.

قال فرانك شو ، المتحدث باسم الشركة ، في بيان: “خلال الأسبوع الماضي وحده ، تفاعل آلاف المستخدمين مع منتجنا ووجدوا قيمة كبيرة أثناء مشاركة ملاحظاتهم معنا ، مما سمح للنموذج بالتعلم وإجراء العديد من التحسينات بالفعل”. “نحن ندرك أنه لا يزال هناك عمل يتعين القيام به ونتوقع أن النظام قد يرتكب أخطاء أثناء فترة المعاينة هذه ، وهذا هو سبب أهمية التعليقات حتى نتمكن من التعلم ومساعدة النماذج على التحسن.”

قال إن طول المحادثة وسياقها قد يؤثران على نغمة الشات بوت ، وأن الشركة “تعدل ردودها لخلق إجابات متماسكة وذات صلة وإيجابية”. وقال إن الشركة أصلحت المشاكل التي تسببت في عدم الدقة في التظاهرة.

منذ ما يقرب من سبع سنوات ، قدمت Microsoft chatbot ، Tay ، الذي أغلقته في غضون يوم واحد من إطلاقه عبر الإنترنت ، بعد أن دفعه المستخدمون إلى إلقاء لغة عنصرية ومهينة أخرى. أشار المسؤولون التنفيذيون في Microsoft عند الإطلاق الأسبوع الماضي إلى أنهم تعلموا من تلك التجربة واعتقدوا أن هذه المرة ستلعب بشكل مختلف.

في مقابلة الأسبوع الماضي ، قال السيد مهدي إن الشركة عملت بجد لدمج الضمانات ، وأن التكنولوجيا قد تحسنت بشكل كبير.

قال: “نعتقد أننا في الوقت المناسب للقدوم إلى السوق والحصول على ردود الفعل” ، مضيفًا ، “إذا حدث خطأ ما ، فأنت بحاجة إلى معالجته”.



Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *