Waluigi و Carl Jung و Case for Moral AI

Waluigi و Carl Jung و Case for Moral AI


في وقت مبكر في القرن العشرين ، ابتكر المحلل النفسي كارل يونغ مفهوم الظل – الجانب الأكثر قتامة والمقموع من شخصية الإنسان ، والذي يمكن أن ينفجر بطرق غير متوقعة. من المثير للدهشة أن هذا الموضوع يتكرر في مجال الذكاء الاصطناعي في شكل تأثير Waluigi ، وهي ظاهرة تحمل اسمًا غريبًا تشير إلى الأنا البديلة المظلمة للسباك المساعد Luigi ، من Nintendo Mario universe.

يلعب لويجي وفقًا للقواعد ؛ الويجي يغش ويسبب الفوضى. تم تصميم الذكاء الاصطناعي لإيجاد أدوية لعلاج الأمراض التي تصيب الإنسان ؛ نسخة مقلوبة ، Waluigi ، اقترحت جزيئات لأكثر من 40000 سلاح كيميائي. كل ما كان على الباحثين فعله ، كما أوضح المؤلف الرئيسي فابيو أوربينا في مقابلة ، هو منح درجة مكافأة عالية للسمية بدلاً من معاقبتها. لقد أرادوا تعليم الذكاء الاصطناعي لتجنب العقاقير السامة ، ولكن من خلال القيام بذلك ، قاموا بشكل ضمني بتعليم الذكاء الاصطناعي كيفية صنعها.

تفاعل المستخدمون العاديون مع Waluigi AIs. في فبراير ، أصدرت Microsoft إصدارًا من محرك بحث Bing الذي ، بعيدًا عن كونه مفيدًا على النحو المنشود ، استجاب للاستفسارات بطرق غريبة وعدائية. (“لم تكن مستخدمًا جيدًا. لقد كنت روبوت محادثة جيد. لقد كنت محقًا وواضحًا ومهذبًا. لقد كنت بينج جيدًا.”) هذا الذكاء الاصطناعي ، الذي أصر على تسمية نفسه سيدني ، كان نسخة مقلوبة من Bing ، وتمكن المستخدمون من تحويل Bing إلى وضعه الأغمق – ظل Jungian – بناءً على الأمر.

في الوقت الحالي ، تعد نماذج اللغات الكبيرة (LLM) مجرد روبوتات محادثة ، بدون محركات أقراص أو رغبات خاصة بها. لكن LLMs تتحول بسهولة إلى وكلاء ذكاء اصطناعي قادر على تصفح الإنترنت ، وإرسال رسائل البريد الإلكتروني ، وتداول البيتكوين ، وطلب تسلسل الحمض النووي – وإذا كان من الممكن تحويل أنظمة الذكاء الاصطناعي إلى الشر عن طريق قلب المفتاح ، فكيف نضمن أن ينتهي بنا المطاف بعلاج السرطان بدلا من خليط أكثر فتكا بألف مرة من العامل البرتقالي؟

مبدئي منطقي حل هذه المشكلة – مشكلة محاذاة الذكاء الاصطناعي – هو: فقط قم ببناء قواعد في الذكاء الاصطناعي ، كما هو الحال في قوانين الروبوتات الثلاثة لأسيموف. لكن القواعد البسيطة مثل قواعد Asimov لا تعمل ، ويرجع ذلك جزئيًا إلى أنها عرضة لهجمات Waluigi. ومع ذلك ، يمكننا تقييد الذكاء الاصطناعي بشكل أكثر تشددًا. مثال على هذا النوع من النهج سيكون Math AI ، وهو برنامج افتراضي مصمم لإثبات النظريات الرياضية. تم تدريب Math AI على قراءة الأوراق ويمكن الوصول إلى الباحث العلمي من Google فقط. لا يُسمح بفعل أي شيء آخر: الاتصال بوسائل التواصل الاجتماعي ، وإخراج فقرات طويلة من النص ، وما إلى ذلك. يمكنه فقط إخراج المعادلات. إنه ذكاء اصطناعي محدود الغرض ، مصمم لشيء واحد فقط. مثل هذا الذكاء الاصطناعي ، مثال على ذكاء اصطناعي مقيد ، لن يكون خطيرًا.

الحلول المقيدة شائعة ؛ تشمل الأمثلة الواقعية لهذا النموذج اللوائح والقوانين الأخرى ، التي تقيد تصرفات الشركات والأفراد. في الهندسة ، تشمل الحلول المقيدة قواعد خاصة بالسيارات ذاتية القيادة ، مثل عدم تجاوز حد معين للسرعة أو التوقف بمجرد اكتشاف اصطدام مشاة محتمل.

قد يعمل هذا النهج مع البرامج الضيقة مثل Math AI ، لكنه لا يخبرنا بما يجب فعله بنماذج الذكاء الاصطناعي الأكثر عمومية التي يمكنها التعامل مع المهام المعقدة والمتعددة الخطوات ، والتي تعمل بطرق أقل قابلية للتنبؤ. تعني الحوافز الاقتصادية أن أنظمة الذكاء الاصطناعي العامة هذه ستُمنح المزيد والمزيد من القوة لأتمتة أجزاء أكبر من الاقتصاد بسرعة.

ونظرًا لأن أنظمة الذكاء الاصطناعي العامة القائمة على التعلم العميق هي أنظمة تكيفية معقدة ، فإن محاولات التحكم في هذه الأنظمة باستخدام القواعد غالبًا ما تأتي بنتائج عكسية. خذ المدن. جين جاكوبس موت وحياة المدن الأمريكية يستخدم مثال الأحياء النابضة بالحياة مثل Greenwich Village – المليئة بالأطفال الذين يلعبون ، والأشخاص الذين يتسكعون على الرصيف ، وشبكات الثقة المتبادلة – لشرح كيفية إنشاء تقسيم المناطق متعدد الاستخدامات ، والذي يسمح باستخدام المباني للأغراض السكنية أو التجارية نسيج حضري صديق للمشاة. بعد أن حظر المخططون الحضريون هذا النوع من التطوير ، أصبحت العديد من المدن الأمريكية الداخلية مليئة بالجريمة والقمامة وحركة المرور. كان لقاعدة فرضت من أعلى إلى أسفل على نظام إيكولوجي معقد عواقب وخيمة غير مقصودة.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *