اخبار

ليس عليك أن تكون نفضًا لمقاومة الروبوتات


كان هناك مرة واحدة مساعد افتراضي يُدعى السيدة ديوي ، أمينة مكتبة لطيفة تؤدي دورها جانينا جافانكار والتي ساعدتك في استفساراتك حول محاولة Microsoft الأولى في محرك بحث. تم إطلاق السيدة ديوي في عام 2006 ، مع أكثر من 600 سطر من الحوار المسجل. لقد كانت سابقة لعصرها بعدة طرق ، ولكن أحد الأمثلة التي تم التغاضي عنها بشكل خاص تم التقاطه من قبل باحثة المعلومات ميريام سويني في أطروحة الدكتوراه لعام 2013 ، حيث قامت بتفصيل الآثار الجنسانية والعرقية لردود ديوي. تضمن ذلك سطورًا مثل ، “مرحبًا ، إذا تمكنت من الدخول إلى جهاز الكمبيوتر الخاص بك ، فيمكنك فعل ما تريده بي.” أو كيف تسبب البحث عن “وظائف ضربة” في مقطع فيديو لها وهي تأكل موزة لتلعب ، أو جعلها إدخال مصطلحات مثل “ghetto” تؤدي أغنية راب مع كلمات تتضمن أحجار كريمة مثل “No، goldtooth، ghetto-fabulous mutha-fucker BEEP خطوات لهذه القطعة من [ass] زمارة.” يحلل سويني ما هو واضح: أن ديوي صُمم لتلبية احتياجات مستخدم ذكر أبيض اللون. أشادت المدونات في ذلك الوقت بمغازلة ديوي ، بعد كل شيء.

تم إيقاف تشغيل السيدة ديوي من قبل Microsoft في عام 2009 ، ولكن النقاد لاحقًا – بمن فيهم أنا – سيحددون نمطًا مشابهًا من التحيز في كيفية تعامل بعض المستخدمين مع المساعدين الافتراضيين مثل Siri أو Cortana. عندما كشف مهندسو Microsoft أنهم برمجوا Cortana لرفض الاستفسارات أو التطورات الجنسية بحزم ، كان هناك غضب شديد على Reddit. ورد في إحدى المشاركات التي حظيت بتأييد كبير: “هل هؤلاء الأشخاص اللعين جادون ؟! هدف “هي” كله أن تفعل ما يقولها لها الناس! مرحبًا ، أيتها العاهرة ، أضف هذا إلى التقويم الخاص بي … اليوم الذي تصبح فيه Cortana “امرأة مستقلة” هو اليوم الذي تصبح فيه البرامج غير مجدية. ” ازدهر النقد لمثل هذا السلوك ، بما في ذلك من قبل مراسلك المتواضع.

الآن ، وسط التراجع عن ChatGPT وأمثاله ، تأرجح البندول بقوة ، وقد حذرنا ضد التعاطف مع هذه الأشياء. إنها نقطة أوضحتها في أعقاب إخفاق LaMDA للذكاء الاصطناعي العام الماضي: لا يحتاج الروبوت إلى أن يكون حكيمًا بالنسبة لنا لتجسيده ، وسيتم استغلال هذه الحقيقة من قبل المستغلين. أنا أقف بجانب هذا التحذير. لكن البعض ذهب إلى أبعد من ذلك ليقترح أن الانتقادات السابقة للأشخاص الذين أساءوا استخدام مساعديهم الافتراضيين هي تمكين ساذج في الماضي. ربما كان الرجال الذين وصفوا كورتانا مرارًا وتكرارًا بـ “العاهرة” يفكرون في شيء ما!

قد يصدمك معرفة أن الأمر ليس كذلك. لم تكن الانتقادات السابقة لإساءة استخدام الذكاء الاصطناعي صحيحة فحسب ، بل توقعوا المشهد الرقمي الأكثر خطورة الذي نواجهه الآن. السبب الحقيقي وراء تحول النقد من “الناس لئيمة جدًا في التعامل مع الروبوتات” إلى “الناس لطفاء جدًا معهم” هو أن الاقتصاد السياسي للذكاء الاصطناعي قد تغير فجأة وبشكل كبير ، إلى جانب عروض مبيعات شركات التكنولوجيا. حيث تم بيع الروبوتات لنا كخادم مثالي ، الآن سيتم بيعها لنا كأفضل صديق لنا. ولكن في كل حالة ، تطلبت منا الاستجابة المرضية لكل جيل روبوت ضمنيًا إضفاء الطابع الإنساني عليها. لطالما استخدم مالكو الروبوتات أسوأ وأفضل دوافعنا.

إحدى الحقائق غير البديهية حول العنف هي أنه في الوقت الذي يجرد فيه الإنسان من الإنسانية ، فإنه في الواقع يتطلب من الجاني أن يراك كبشر. إنها حقيقة قاتمة ، لكن الجميع ، من مجرمي الحرب إلى الزحف في الحانة ، ينطلقون إلى حد ما من فكرة أن ضحاياهم يشعرون بالألم. التجريد من الإنسانية ليس الفشل في رؤية شخص ما على أنه إنسان ، ولكن الرغبة في رؤية شخص ما على أنه أقل من إنسان والتصرف وفقًا لذلك. وهكذا ، على مستوى معين ، كانت الدرجة التي أخطأ فيها الناس في اعتبار مساعديهم الظاهريين على أنهم بشر حقيقيون هي التي شجعتهم على الإساءة إليهم. لن يكون الأمر ممتعًا بخلاف ذلك. هذا يقودنا إلى اللحظة الحالية.

الجيل السابق من الذكاء الاصطناعي تم بيعه لنا كخادمين مثاليين – جهاز PA متطور أو ربما كمبيوتر ستارشيب إنتربرايز من Majel Barrett. خاضع للعلم وجاهز دائمًا للخدمة. تحمل محركات بحث روبوتات الدردشة الجديدة أيضًا بعض الارتباطات نفسها ، ولكن مع تطورها ، سيتم بيعها لنا أيضًا كأشخاص مقربين جدد ، حتى المعالجين الجدد لدينا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى