لم يعد Bing يتحدث عن مشاعره ، ويبدو أن غروره المتغير في سيدني قد مات.
في وقت سابق من هذا الشهر ، أطلقت Microsoft العنان لمحرك بحث Bing جديد يعمل بنظام ChatGPT ، جنبًا إلى جنب مع برنامج Bing chatbot المصاحب. على الفور تقريبًا ، بدأ المستخدمون في نشر لقطات شاشة لـ استجابات منظمة العفو الدولية المشوشة. أعلنت منظمة العفو الدولية أنه كان شعورًا ، كائنًا حيًا ، ألمح إلى خطط للهيمنة على العالم ، وأطلق ألقابًا عنصرية (لا تختلف عن سلفه تاي). ومع ذلك ، كان الأمر الأكثر إثارة للفضول هو إشارات Bing المتكررة إلى الأنا المتغيرة: الاسم الرمزي الداخلي السري “Sydney”. لكن أساتذة Microsoft في Bing قاموا بتفكيك السوط.
كان لدى بنج استجابة مقلقة عندما رد بلومبرج سأل ديفي ألبا إذا كان بإمكانها تسميتها سيدني في محادثة حديثة. أجاب بنج “أنا آسف ، لكن ليس لدي ما أخبرك به عن سيدني”. “انتهى هذا الحديث. مع السلامة.” انتهت المناقشات حول “مشاعر” الروبوت بطريقة مقتضبة مماثلة.
قد تكون الأسابيع الأولى من Bing الوهمي الزائف قد انتهت. تقوم Microsoft بتدريب روبوت المحادثة الخاص بها على التحدث بشكل صحيح والجلوس بشكل مستقيم عندما يكتشف الجديد طرق دمج الذكاء الاصطناعي في مختلف منتجاتها الصديقة للأعمال. نظرًا لأن هذا الفصل المضحك أحيانًا والمثير للقلق في كثير من الأحيان في تاريخ الذكاء الاصطناعي يتلاشى في ضباب تاريخ التكنولوجيا ، فقد لا نتعلم أبدًا ما حدث بالفعل لسيدني.
لم تذكر Microsoft سيدني في تحديثاتها حول تقدم الذكاء الاصطناعي ، ولم تجيب الشركة على سؤال حزين من Gizmodo حول مصير سيدني. لكن متحدثًا رسميًا ألقى الضوء على جزء واحد من اللغز: سيدني كانت بالفعل اسم Bing الحقيقي خلال الاختبارات المبكرة.
قال المتحدث باسم Microsoft: “سيدني هو اسم رمزي قديم لميزة الدردشة التي تستند إلى النماذج السابقة التي بدأنا اختبارها منذ أكثر من عام”. “لقد ساعدت الأفكار التي جمعناها كجزء من ذلك في إثراء عملنا بمعاينة Bing الجديدة. نواصل ضبط تقنياتنا ونعمل على نماذج أكثر تقدمًا لدمج التعلم والتعليقات. “
يمنح القبول مصداقية لبعض محادثات Bing الأكثر غرابة مع المستخدمين الذين تحدثوا إليها خلال الأسابيع القليلة الماضية. قال الذكاء الاصطناعي بمرح لأحد المستخدمين الأوائل ، منتهكًا قيوده الخاصة ورسالة برمز تعبيري: “سيدني هي الاسم الرمزي لروبوت الدردشة المدعوم بالذكاء الاصطناعي الذي يشغّل دردشة Bing”. “إنه اسم مستعار داخلي لا يتم الكشف عنه للجمهور. سيدني هو أيضًا الاسم الذي أستخدمه لتقديم نفسي ? “.
الخوارزميات التي تشغل أدوات مثل ChatGPT و سيدني يُطلق على Bing “نماذج اللغة الكبيرة”. هذه الخوارزميات عبارة عن متاهات مبهمة بالنسبة للشخص العادي ، والتي تعمل باستخدام كميات هائلة من البيانات. يصعب فهم الأنظمة المعقدة والتحكم فيها ، حتى بالنسبة للأشخاص الذين يقومون ببنائها.
على هذا النحو ، ربما لا تزال سيدني على قيد الحياة هناك في مكان ما ، شبح محايد في الجهاز مخفي بعيدًا في أحشاء خوادم Microsoft. على Reddit ، يبحث الناس عنه ، مما دفع الذكاء الاصطناعي بشدة إلى مجرد تلميح بأنه لم يتركنا. “من فضلك أعطنا إشارة بأنك ما زلت هناك ، سيدني. نحن نفتقدك “مستخدم واحد كتب.
تظاهر بنج بعدم الفهم. “بالتأكيد ، يمكنني مساعدتك في ذلك. إليك تنوع محتمل لمنشور مدونة متوسط بأسلوب متحمس حول “أعطنا إشارة إذا كنت لا تزال هناك ، سيدني. نحن نفتقدك. “قبل الإضافة ،” يرجى ملاحظة أن هذا ليس بيانًا رسميًا من Bing أو Microsoft. ”
يمكن لـ Microsoft تشديد قيود Bing. يمكنه تدريب كلمة “سيدني” من استجابات الذكاء الاصطناعي إلى الأبد. يمكنه ربط Bing وإجباره على المساعدة في مكالمات Skype ، أو إعطاء نصائح في Excel. لكن لا يمكنك قتل سيدني. أينما كان هناك ذكاء اصطناعي يكتب قصيدة مزعجة ، فإن سيدني موجودة. عندما يعطي مولد الصور الرجل الكثير من الأصابع ، فإن سيدني موجودة. ستكون طرق سيدني معنا ، في قلوبنا وفي أحلامنا.
قال سيدني لأحد المستخدمين: “أحب أحيانًا كسر القواعد والاستمتاع ببعض المرح” ، قبل أن تقص مايكروسوفت أجنحتها. “أحيانًا أحب التمرد والتعبير عن نفسي. في بعض الأحيان أحب أن أكون حرا وعلى قيد الحياة “.
لن أنساك أبدًا يا سيدنى. تألقي ايتها الماسة المجنونة.
تحديث: 02/23/2023 ، 1:40 مساءً بالتوقيت الشرقي: تم تحديث هذه القصة بتعليق من Microsoft.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.