وقال إن إطلاقه – على الرغم من العيوب المحتملة – كان مثالًا حاسمًا على “الوتيرة المحمومة” لمايكروسوفت لدمج الذكاء الاصطناعي التوليدي في منتجاتها. قال المسؤولون التنفيذيون في مؤتمر صحفي في حرم مايكروسوفت في ريدموند ، واشنطن ، مرارًا وتكرارًا ، إن الوقت قد حان لإخراج الأداة من “المختبر” إلى أيدي الجمهور.
قال ناديلا: “أشعر خاصة في الغرب ، هناك الكثير من الإعجاب ،” أوه ، يا إلهي ، ماذا سيحدث بسبب هذا الذكاء الاصطناعي؟ ” “ومن الأفضل نوعًا ما أن تقول حقًا ،” مرحبًا ، انظر ، هل هذا يساعدك حقًا أم لا؟ “
قال أورين إيتزيوني ، الأستاذ الفخري في جامعة واشنطن والرئيس التنفيذي المؤسس لمعهد ألين للذكاء الاصطناعي ، وهو مختبر بارز في سياتل ، إن مايكروسوفت “قامت بمخاطرة محسوبة ، في محاولة للسيطرة على التكنولوجيا بقدر ما يمكن السيطرة عليها”.
وأضاف أن العديد من القضايا الأكثر إثارة للقلق تضمنت دفع التكنولوجيا إلى ما هو أبعد من السلوك العادي. قال: “قد يكون من المدهش جدًا كيف أن الأشخاص الماكرون في استحضار ردود غير ملائمة من روبوتات المحادثة”. وفي إشارة إلى مسؤولي Microsoft ، تابع قائلاً: “لا أعتقد أنهم توقعوا مدى سوء بعض الردود عندما يُطلب من برنامج الدردشة الآلي بهذه الطريقة.”
للتحوط من المشاكل ، منحت Microsoft بضعة آلاف فقط من المستخدمين الوصول إلى Bing الجديد ، على الرغم من أنها قالت إنها تخطط للتوسع إلى ملايين آخرين بحلول نهاية الشهر. ولمعالجة المخاوف بشأن الدقة ، قدمت روابط تشعبية ومراجع في إجاباتها حتى يتمكن المستخدمون من التحقق من النتائج.
تم الإبلاغ عن التحذير من خلال تجربة الشركة منذ ما يقرب من سبع سنوات عندما قدمت chatbot اسمه Tay. وجد المستخدمون على الفور طرقًا لجعلها تنفث لغة عنصرية ومتحيزة جنسيًا ولغات مسيئة أخرى. قامت الشركة بإزالة Tay في غضون يوم واحد ، ولم تطلقه مرة أخرى.
ركز جزء كبير من التدريب على برنامج الدردشة الآلي الجديد على الحماية من هذا النوع من الاستجابة الضارة ، أو السيناريوهات التي تثير العنف ، مثل التخطيط لهجوم على مدرسة.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.