اخبار

لا ينبغي أن تكون حالة علاقة ChatGPT الخاصة بك معقدة


التكنولوجيا وراء كان ChatGPT موجودًا منذ عدة سنوات دون أن يوجه الكثير من الإشعار. كانت إضافة واجهة chatbot هي التي جعلتها شائعة جدًا. بعبارة أخرى ، لم يكن تطورًا في الذكاء الاصطناعي في حد ذاته ، بل تغييرًا في كيفية تفاعل الذكاء الاصطناعي مع الأشخاص الذي جذب انتباه العالم.

بسرعة كبيرة ، بدأ الناس يفكرون في ChatGPT ككيان اجتماعي مستقل. هذا ليس مستغربا. في وقت مبكر من عام 1996 ، نظر بايرون ريفز وكليفورد ناس في أجهزة الكمبيوتر الشخصية في عصرهم ووجدوا أن “التوسط بين الحياة الواقعية والحياة الواقعية ليس نادرًا ولا غير معقول. إنه شائع جدًا ، ومن السهل تربيته ، ولا يعتمد على معدات وسائط فاخرة ، والتفكير لن يجعله يختفي. بعبارة أخرى ، فإن التوقع الأساسي للناس من التكنولوجيا هو أنها تتصرف وتتفاعل كإنسان ، حتى عندما يعلمون أنها “مجرد جهاز كمبيوتر”. تؤكد شيري توركل ، الأستاذة في معهد ماساتشوستس للتكنولوجيا التي درست عوامل الذكاء الاصطناعي والروبوتات منذ تسعينيات القرن الماضي ، على نفس النقطة وتدعي أن أشكال الاتصال الواقعية ، مثل لغة الجسد والإشارات اللفظية ، “تضغط على الأزرار الداروينية” —لديهم القدرة على صنع نحن نختبر التكنولوجيا على أنها اجتماعية ، حتى لو فهمنا بعقلانية أنها ليست كذلك.

إذا رأى هؤلاء العلماء الإمكانات الاجتماعية – والمخاطر – في واجهات الكمبيوتر القديمة ، فمن المنطقي أن نفترض أن ChatGPT يمكن أن يكون له أيضًا تأثير مماثل ، وربما أقوى. يستخدم لغة الشخص الأول ، ويحتفظ بالسياق ، ويقدم إجابات بأسلوب مقنع وواثق ومحادثة. حتى أن تنفيذ Bing لـ ChatGPT يستخدم الرموز التعبيرية. هذه خطوة للأعلى في السلم الاجتماعي من المخرجات التقنية التي يمكن للمرء الحصول عليها من البحث ، على سبيل المثال ، Google.

ركز منتقدو ChatGPT على الأضرار التي يمكن أن تسببها مخرجاتها ، مثل المعلومات الخاطئة والمحتوى البغيض. ولكن هناك أيضًا مخاطر في مجرد اختيار أسلوب المحادثة الاجتماعية ومحاولة الذكاء الاصطناعي لمحاكاة الناس بأكبر قدر ممكن.

مخاطر الواجهات الاجتماعية

نيويورك تايمز وقع الصحفي كيفن روز في محادثة استمرت ساعتين مع روبوت الدردشة الخاص بـ Bing والتي انتهت بإعلان حب الشات بوت ، على الرغم من أن روز طلب منه التوقف مرارًا وتكرارًا. هذا النوع من التلاعب العاطفي سيكون أكثر ضررًا للفئات الضعيفة ، مثل المراهقين أو الأشخاص الذين تعرضوا للتحرش. قد يكون هذا مزعجًا للغاية للمستخدم ، واستخدام المصطلحات البشرية وإشارات المشاعر ، مثل الرموز التعبيرية ، هو أيضًا شكل من أشكال الخداع العاطفي. نموذج اللغة مثل ChatGPT ليس لديه مشاعر. لا تضحك ولا تبكي. إنه في الواقع لا يفهم حتى معنى مثل هذه الإجراءات.

الخداع العاطفي في عملاء الذكاء الاصطناعي ليس مشكلة أخلاقية فحسب ؛ تصميمها ، الذي يشبه البشر ، يمكن أيضًا أن يجعل هذه العوامل أكثر إقناعًا. من المرجح أن تقنع التكنولوجيا التي تعمل بطرق إنسانية الناس بالتصرف ، حتى عندما تكون الطلبات غير منطقية ، والتي يقدمها وكيل ذكاء اصطناعي معيب ، وفي حالات الطوارئ. إن إقناعهم خطير لأن الشركات يمكن أن تستخدمها بطريقة غير مرغوب فيها أو حتى غير معروفة للمستخدمين ، من إقناعهم بشراء المنتجات للتأثير على آرائهم السياسية.

نتيجة لذلك ، تراجع البعض خطوة إلى الوراء. على سبيل المثال ، قام باحثو تصميم الروبوتات بالترويج لنهج غير إنساني كطريقة لخفض توقعات الناس للتفاعل الاجتماعي. يقترحون تصميمات بديلة لا تكرر طرق تفاعل الناس ، وبالتالي تضع توقعات أكثر ملاءمة من قطعة تقنية.

تحديد القواعد

يمكن معالجة بعض مخاطر التفاعلات الاجتماعية مع روبوتات المحادثة من خلال تصميم أدوار وحدود اجتماعية واضحة لهم. يختار البشر الأدوار ويبدلونها طوال الوقت. يمكن لنفس الشخص أن يتحرك ذهابًا وإيابًا بين أدواره كوالد أو موظف أو شقيق. بناءً على التبديل من دور إلى آخر ، يتغير السياق والحدود المتوقعة للتفاعل أيضًا. لن تستخدم نفس اللغة عند التحدث إلى طفلك كما تفعل في الدردشة مع زميل في العمل.

في المقابل ، يوجد ChatGPT في فراغ اجتماعي. على الرغم من وجود بعض الخطوط الحمراء التي تحاول عدم تجاوزها ، إلا أنها لا تملك دورًا اجتماعيًا أو خبرة واضحة. ليس لها هدف محدد أو نية محددة مسبقًا أيضًا. ربما كان هذا اختيارًا واعًا من قبل شركة OpenAI ، مبتكرو ChatGPT ، للترويج للعديد من الاستخدامات أو كيان يقوم بكل شيء. على الأرجح ، كان مجرد نقص في فهم النطاق الاجتماعي لوكلاء المحادثة. مهما كان السبب ، فإن هذا الانفتاح يمهد الطريق للتفاعلات الشديدة والمحفوفة بالمخاطر. يمكن للمحادثة أن تذهب بأي طريق ، ويمكن للذكاء الاصطناعي أن يقوم بأي دور اجتماعي ، من مساعد البريد الإلكتروني الفعال إلى العاشق المهووس.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى