وقع أكثر من 350 خبيرًا تقنيًا وباحثًا في الذكاء الاصطناعي وقادة الصناعة على بيان بشأن مخاطر الذكاء الاصطناعي نشره مركز أمان الذكاء الاصطناعي الأسبوع الماضي. إنه تحذير قصير جدًا وموجز من جملة واحدة لنا جميعًا:
يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.
لذا يعتقد خبراء الذكاء الاصطناعي ، بما في ذلك المهندسين العمليين من Google و Microsoft الذين يطلقون الذكاء الاصطناعي بنشاط على العالم ، أن الذكاء الاصطناعي لديه القدرة على أن يكون حدثًا عالميًا للانقراض في نفس سياق الحرب النووية. ييكيس.
سأعترف أنني فكرت في نفس الشيء الذي فعله الكثير من الناس عندما قرأوا هذا البيان لأول مرة – هذا حمولة من حصان. نعم ، لدى الذكاء الاصطناعي الكثير من المشاكل وأعتقد أنه من المبكر الاعتماد عليه بقدر ما تفعله بعض شركات التكنولوجيا والأخبار ، لكن هذا النوع من المبالغة سخيف.
ثم قمت ببعض البحث على Googling لمختبر Bard Beta ووجدت عدة طرق أن الذكاء الاصطناعي ضار بالفعل. بعض الفئات الأكثر ضعفًا في المجتمع أكثر عرضة للخطر بسبب الذكاء الاصطناعي التوليدي ومدى غباء هذه الحواسيب الذكية في الواقع.
أطلقت الرابطة الوطنية لاضطرابات الأكل مشغلي خطوط المساعدة الخاصة بها في 25 مايو 2023 ، واستبدلتهم بـ Tessa the ChatBot. كان العمال في خضم النقابات ، لكن NEDA تدعي “كان هذا تغييرًا طال انتظاره وأن الذكاء الاصطناعي يمكن أن يخدم بشكل أفضل أولئك الذين يعانون من اضطرابات الأكل” وليس له علاقة بستة موظفين بأجر ومتطوعين متنوعين يحاولون الانضمام إلى نقابات.
في 30 مايو 2023 ، قامت NEDA بتعطيل Tessa the ChatBot لأنها كانت تقدم نصائح ضارة للأشخاص الذين يعانون من اضطرابات الأكل الخطيرة. رسميًا ، NEDA “مهتمة وتعمل مع فريق التكنولوجيا وفريق البحث لمزيد من التحقيق ؛ هذه اللغة تتعارض مع سياساتنا ومعتقداتنا الأساسية كمنظمة لاضطرابات الأكل.”
يوجد في الولايات المتحدة 30 مليون شخص يعانون من اضطرابات خطيرة في الأكل ويموت 10200 شخص كل عام كنتيجة مباشرة لهذه الاضطرابات. واحد كل ساعة.
ثم لدينا كوكو ، وهي منظمة غير ربحية للصحة العقلية استخدمت الذكاء الاصطناعي كتجربة على المراهقين الانتحاريين. نعم ، لقد قرأت ذلك بشكل صحيح.
تم توجيه المستخدمين المعرضين للخطر إلى موقع Koko الإلكتروني من وسائل التواصل الاجتماعي حيث تم وضع كل منهم في واحدة من مجموعتين. تم تزويد مجموعة واحدة برقم هاتف لخط ساخن حقيقي للأزمة حيث نأمل أن يجدوا المساعدة والدعم الذي يحتاجون إليه.
حصلت المجموعة الأخرى على تجربة كوكو حيث حصلوا على اختبار وطُلب منهم تحديد الأشياء التي أثارت أفكارهم وماذا كانوا يفعلون للتأقلم معها.
بمجرد الانتهاء ، سألهم الذكاء الاصطناعي عما إذا كانوا سيفحصون إشعارات هواتفهم في اليوم التالي. إذا كانت الإجابة بنعم ، يتم دفعهم إلى شاشة تقول “شكرًا على ذلك! ها هي قطة!” بالطبع ، كانت هناك صورة لقط ، وعلى ما يبدو ، كوكو وباحث الذكاء الاصطناعي الذي ساعد في خلق هذا التفكير الذي سيجعل الأمور أفضل بطريقة ما.
لست مؤهلاً للتحدث عن أخلاقيات مثل هذه المواقف حيث يتم استخدام الذكاء الاصطناعي لتوفير التشخيص أو المساعدة للأشخاص الذين يعانون من مشاكل الصحة العقلية. أنا خبير في التكنولوجيا وأركز في الغالب على الهواتف الذكية. يتفق معظم الخبراء البشريين على أن هذه الممارسة مليئة بالمشكلات. أنا أعلم أن النوع الخاطئ من “المساعدة” يمكن أن يجعل الوضع السيئ أسوأ بكثير وسيؤدي إلى تفاقمه.
إذا كنت تعاني من صحتك العقلية أو تشعر أنك بحاجة إلى بعض المساعدة ، فيرجى الاتصال أو إرسال رسالة نصية إلى 988 للتحدث مع إنسان يمكنه مساعدتك.
تروي هذه الأنواع من القصص شيئين – الذكاء الاصطناعي يمثل مشكلة كبيرة عند استخدامه بدلاً من الأشخاص المؤهلين في حالة حدوث أزمة ، ويمكن للأشخاص الحقيقيين الذين من المفترض أن يعرفوا بشكل أفضل أن يكونوا أغبياء أيضًا.
الذكاء الاصطناعي في وضعه الحالي غير جاهز للاستخدام بهذه الطريقة. ولا حتى قريبة. تشير الأستاذة بجامعة واشنطن إميلي إم بيندر إلى نقطة مهمة في تصريحها لنائب الرئيس:
“النماذج اللغوية الكبيرة هي برامج لتوليد نص يبدو معقولاً بالنظر إلى بيانات التدريب الخاصة بهم وموجه الإدخال. ليس لديهم أي تعاطف ، ولا أي فهم للغة التي ينتجونها ، ولا أي فهم للموقف الذي هم فيه. ولكن النص الذي يقومون به تنتج أصواتًا معقولة وبالتالي من المرجح أن يعين الناس معنى لها. إن إلقاء شيء من هذا القبيل في مواقف حساسة يعني تحمل مخاطر غير معروفة “.
أريد أن أنكر ما أراه وأقرأه حتى أتمكن من التظاهر بأن الناس لا يسلكون طرقًا مختصرة أو يحاولون توفير المال باستخدام الذكاء الاصطناعي بطرق ضارة. الفكرة نفسها مقززة بالنسبة لي. لكن لا يمكنني ذلك لأن الذكاء الاصطناعي لا يزال غبيًا ويبدو أن الكثير من الأشخاص الذين يرغبون في استخدامه كذلك كذلك.
ربما فكرة الانقراض الجماعي بسبب الذكاء الاصطناعي ليست فكرة بعيدة المنال بعد كل شيء.