أداوت وتكنولوجيا

يطالب كبار التكنولوجيين وإيلون ماسك بإيقاف فوري لأنظمة الذكاء الاصطناعي المتقدمة


وقع تحالف واسع النطاق يضم أكثر من 500 من التقنيين والمهندسين وخبراء أخلاقيات الذكاء الاصطناعي رسالة مفتوحة دعوة مختبرات الذكاء الاصطناعي إلى الإيقاف الفوري لجميع التدريبات على أي أنظمة ذكاء اصطناعي أقوى من Open AI الذي تم إصداره مؤخرًا GPT-4 لمدة ستة أشهر على الأقل. الموقعون ، ومن بينهم المؤسس المشارك لشركة Apple ستيف وزنياك و مطور الذكاء الاصطناعي “القائم على الذكاء الاصطناعي” Elon Musk، حذروا من أن هذه النماذج المتقدمة الجديدة للذكاء الاصطناعي قد تشكل “مخاطر جسيمة على المجتمع والإنسانية” ، إذا سُمح لها بالتقدم دون ضمانات كافية. إذا رفضت الشركات وقف التطوير ، يقول الخطاب إنه يجب على الحكومات أن تبتعد عن الشركات الكبرى وتضع تعليقًا إلزاميًا.

تقول الرسالة: “يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بما يتناسب مع العناية والموارد”. “لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد – ولا حتى منشئوها – فهمها أو توقع أو تحكم بشكل موثوق “.

تم الافراج عن الرسالة من قبل معهد مستقبل الحياة، وهي منظمة وصفت نفسها بأنها تركز على توجيه التقنيات بعيدًا عن المخاطر واسعة النطاق المتصورة على البشرية. تشمل مجموعات الخطر الأساسية هذه الذكاء الاصطناعي والتكنولوجيا الحيوية والأسلحة النووية وتغير المناخ. تقع مخاوف المجموعة بشأن أنظمة الذكاء الاصطناعي على افتراض أن تلك الأنظمة ، “أصبحت الآن قادرة على المنافسة البشرية في المهام العامة.” يجادل الخطاب أن هذا المستوى من التطور يمكن أن يؤدي إلى مستقبل قريب حيث يستخدم الفاعلون السيئون الذكاء الاصطناعي لإغراق الإنترنت بالدعاية ، وجعل الوظائف المستقرة ذات مرة زائدة عن الحاجة ، وتطوير “عقول غير بشرية” يمكن أن تكمل أو “تحل محل” البشر.

وتجادل الرسالة بأن أنظمة الذكاء الاصطناعي الناشئة تفتقر حاليًا إلى ضمانات أو ضوابط ذات مغزى تضمن أنها آمنة ، “دون أدنى شك معقول”. لحل هذه المشكلة ، تنص الرسالة على أن مختبرات الذكاء الاصطناعي يجب أن تستخدم التوقف المؤقت لتنفيذ مجموعة مشتركة من بروتوكولات السلامة والاتفاق عليها وضمان الأنظمة ومراجعتها من خلال مراجعة مستقلة للخبراء الخارجيين. أخبر أحد الموقعين البارزين موقع Gizmodo أن تفاصيل ما تبدو عليه هذه المراجعة في الواقع لا تزال “مسألة مناقشة إلى حد كبير”. لن ينطبق التوقف المؤقت والضمانات المضافة بشكل ملحوظ على جميع عمليات تطوير الذكاء الاصطناعي. بدلاً من ذلك ، سيركز على “نماذج الصندوق الأسود ذات القدرات الناشئة” ، والتي تعتبر أقوى من GPT للذكاء الاصطناعي المفتوح 4. بشكل حاسم ، يتضمن ذلك Open AI’s في التنمية GPT 5.

تقول الرسالة: “يجب إعادة تركيز البحث والتطوير في مجال الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانًا وقابلية للتفسير وشفافية وقوة ومتماسكة وجديرة بالثقة وولاء”.

المشككون في الذكاء الاصطناعي منقسمون حول حجم التهديد

تحدث مع Gizmodo ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة بيركلي و مؤلف مشارك ل الذكاء الاصطناعي: نهج حديث. راسل ، وهو أيضًا أحد أبرز الموقعين على الرسالة. قال إن المخاوف بشأن التهديدات للديمقراطية والمعلومات المضللة المسلحة تنطبق بالفعل على GPT-4 و Google Bard ونماذج اللغات الكبيرة الأخرى المتاحة. قال إنه كلما زاد القلق بشأن كوابيس الذكاء الاصطناعي، هي تلك التي استطاع الخروج من الجيل القادم من الأدوات.

قال راسل لـ Gizmodo في مقابلة: “يأتي القلق الأكثر أهمية مما يبدو أنه سباق غير مقيد بين شركات التكنولوجيا ، التي تقول بالفعل إنها لن تتوقف عن تطوير أنظمة أكثر وأكثر قوة ، بغض النظر عن المخاطر”. “ولنكن واضحين: الخطر الذي يشيرون إليه هنا هو فقدان السيطرة البشرية على العالم ومستقبلنا ، مثلما فقدت الغوريلا السيطرة على مستقبلها بسبب البشر.”

يدعي راسل أنه ليس لدينا نحن ولا مبتكرو أدوات الذكاء الاصطناعي أنفسهم أي فكرة عن كيفية عملها بالفعل. على الرغم من أن باحثين بارزين آخرين في مجال الذكاء الاصطناعي قد دحضوا هذا الوصف ، إلا أن راسل يقول إن النماذج هي في الأساس “قائمة فارغة من تريليون معلمة”.

قال راسل: “هذا كل ما نعرفه”. “لا نعرف ، على سبيل المثال ، ما إذا كانوا قد طوروا أهدافهم الداخلية الخاصة والقدرة على متابعتها من خلال التخطيط الممتد.” أشار راسل إلى ورقة بحثية حديثة أجراها باحثو مايكروسوفت زعمت أن GPT-4 الذي تم إصداره مؤخرًا من Open AI أظهر “شرارات من الذكاء الاصطناعي العام”.

يتحدث خبراء الذكاء الاصطناعي الآخرون مع Gizmodo who لم يضيفوا أسماءهم إلى الرسالة المفتوحة لمعهد مستقبل الحياة كانوا أكثر تحفظًا بكثير مع نقدهمرسالة قصيرة. شارك الخبراء مخاوفهم بشأن إساءة استخدام الذكاء الاصطناعي المحتملة ، لكنهم ارتدوا من المحاولات الشائعة بشكل متزايد لمقارنة أنظمة الذكاء الاصطناعي بالذكاء البشري. وأشاروا إلى أن الحديث عن الذكاء العام الاصطناعي يمكن أن يأتي بنتائج عكسية. ChatGPT من OpenAI ، والذي كان قادرًا على اجتياز فصول كلية إدارة الأعمال وامتحان ترخيص طبي رئيسي ، يكافح في نفس الوقت مع العمليات الحسابية الأساسية.

قالت سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now جزمودو. “ولكن إليك ما هو مفتاح فهمه حول Chat GPT ونماذج اللغات الكبيرة الأخرى المماثلة: فهي لا تعكس بأي شكل من الأشكال عمق فهم اللغة البشرية – إنها تحاكي شكلها.”

على الرغم من أن مايرز تشارك مخاوفها بشأن إساءة استخدام الذكاء الاصطناعي ، إلا أنها تشعر بالقلق من التكنولوجيا الحالية القطار الضجيج والإفراط في المبالغة في قدراته يمكن أن يصرف الانتباه عن المخاوف الأكثر إلحاحًا.

اعترف راسل ببعض هؤلاء النقاد لكنه قال إن المجهول حول ما هي النماذج الجديدة استطاع هل كانت سببًا كافيًا للقلق.

“هل تنشئ LLM أهدافًا داخلية لتقليد البشر بشكل أفضل؟” سأل راسل. “إذا كان الأمر كذلك، ما هي؟ ليس لدينا فكرة. ليس لدينا فكرة. نأمل فقط أن هذا لم يحدث بعد “.

صورة للمقال بعنوان 500 من كبار التقنيين وإيلون ماسك يطالبون بوقف فوري لأنظمة الذكاء الاصطناعي المتقدمة

صورة: ويليام برادبيري (صراع الأسهم)

لا يحتاج المرء بالضرورة إلى الإيمان بإصدار وشيك في العالم الحقيقي من The Terminator حتى يظل لديه مخاوف حقيقية بشأن الذكاء الاصطناعي. أعرب العديد من الباحثين في مجال الذكاء الاصطناعي الذين تحدث معهم موقع Gizmodo عن مخاوفهم الحقيقية بشأن الافتقار إلى القوانين أو التنظيم ذي المغزى في الفضاء ، لا سيما بالنظر إلى اعتماد التكنولوجيا على مساحات شاسعة من البيانات وسرعتها الفائقة. نماذج اللغات الكبيرة البارزة مثل GPT-4 تفتقر حاليًا إلى الشفافية الهادفة حول أنواع بيانات التدريب يستخدم لتطويرهم النماذج ، مما يجعل عمليات التدقيق المستقلة صعبة. التحيزات المتعلقة بالجنس والعرق ، بالفعل على نطاق واسع في نماذج الذكاء الاصطناعي الأقل تقدمًا ، خطر تضخيمه بشكل أكبر.

هناك أيضًا المشكلة المزعجة لنماذج LLM التي تكمن في أسنانهم ، وهي ميزة أشار إليها البعض باسم “هلوسة الذكاء الاصطناعي. ” في الوقت الحالي ، هذه الهلوسة هي في الغالب عبارة مضحكة ، ولكن قد يتغير ذلك مع تحول المزيد والمزيد من المستخدمين إلى تقنية البحث وطرق أخرى جمع المعلومات. تعني الموضوعية المتصورة للتكنولوجيا أن المستخدمين يمكن أن يفترضوا أن ردود الذكاء الاصطناعي هي بيانات واقعية عندما يكونون أقرب إلى تخمين جيد التقدير. هذا التجاهل التام للحقيقة أو الواقع على نطاق واسع يمكن أن يجعل النظام الإيكولوجي للمعلومات المزدحمة بالفعل غير قابل للإدراك.

قالت أستاذة اللسانيات في جامعة واشنطن إميلي إم بيندر لـ Gizmodo: “هذه برامج لإنشاء نص (سريعًا وفي الوقت الحالي على الأقل للمستخدمين النهائيين) يبدو معقولًا ولكن ليس له أساس في أي التزام بالحقيقة”. “هذا يعني أن نظامنا الإيكولوجي للمعلومات يمكن أن يغمر بسرعة بالمعلومات غير المعلوماتية ، مما يجعل من الصعب العثور على مصادر معلومات جديرة بالثقة ويصعب الوثوق بها.”

وعلى الرغم من كل الضجيج المحيط به ، لا يزال عامة الناس غير متأكدين في أحسن الأحوال بشأن المسار الحالي للذكاء الاصطناعي. 9٪ فقط من البالغين في الولايات المتحدة شملهم الاستطلاع في جامعة مونماوث الأخيرة تصويت قالوا إنهم صدقوا أسأفعل خيرًا أكثر من إلحاق الضرر بالمجتمع. قال 56٪ آخرون إنهم يعتقدون أن العالم الذي يغمره الذكاء الاصطناعي المتقدم سيضر بنوعية حياة البشر بشكل عام.

وقال باتريك موراي ، مدير استطلاعات الرأي في معهد الاستطلاعات بجامعة مونماوث ، في بيان: “يبدو أن بعض الناس لا ينظرون إلى الذكاء الاصطناعي على أنه مصدر قلق تكنولوجي واقتصادي فحسب ، بل يمثل أيضًا مسألة تتعلق بالصحة العامة”.

توحد الخبراء والمثيرون للقلق بشأن دعوات للتنظيم

شيء واحد الموقعون عليه من معهد مستقبل الحياة والأكثر حذرًا المشككون في الذكاء الاصطناعي فعل اتفقوا على أن هناك حاجة ملحة لقيام المشرعين بوضع قواعد جديدة للذكاء الاصطناعي. دعا الخطاب صانعي السياسات إلى “الإسراع بشكل كبير في تطوير أنظمة حوكمة قوية للذكاء الاصطناعي” ، والتي تشمل المنظمين الذين يركزون بشكل خاص على الذكاء الاصطناعي بالإضافة إلى الإشراف على أدوات الذكاء الاصطناعي القوية وتتبعها. بالإضافة إلى ذلك ، دعت الرسالة إلى أدوات وضع العلامات المائية لمساعدة المستخدمين على التمييز بسرعة بين المحتوى التركيبي والحقيقي.

“ما لم يكن لدينا تدخل في السياسة ، فإننا نواجه عالماً يكون فيه مسار الذكاء الاصطناعي غير خاضع للمساءلة أمام الجمهور ، ويحدده عدد قليل من الشركات التي لديها الموارد لتطوير هذه الأدوات وتجربتها في البرية” ، ويست من معهد AI Now لـ Gizmodo.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى