صناعة وابتكار

يحذر قادة الصناعة من أن الذكاء الاصطناعي يشكل خطر الانقراض


تخطط مجموعة من قادة الصناعة للتحذير يوم الثلاثاء من أن تقنية الذكاء الاصطناعي التي يبنونها قد تشكل يومًا ما تهديدًا وجوديًا للبشرية ويجب اعتبارها خطرًا مجتمعيًا على قدم المساواة مع الأوبئة والحروب النووية.

“التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى ، مثل الأوبئة والحرب النووية” ، كما جاء في بيان من جملة واحدة من المتوقع أن يصدره مركز أمان الذكاء الاصطناعي ، وهو منظمة غير ربحية. تم التوقيع على الرسالة المفتوحة من قبل أكثر من 350 من المديرين التنفيذيين والباحثين والمهندسين العاملين في الذكاء الاصطناعي

ضم الموقعون كبار المسؤولين التنفيذيين من ثلاث شركات رائدة في مجال الذكاء الاصطناعي: سام التمان ، الرئيس التنفيذي لشركة أوبن إيه آي ؛ ديميس هاسابيس ، الرئيس التنفيذي لشركة Google DeepMind ؛ وداريو أمودي ، الرئيس التنفيذي لشركة Anthropic.

وقع البيان جيفري هينتون ويوشوا بنجيو ، وهما اثنان من الباحثين الثلاثة الذين فازوا بجائزة تورينج لعملهم الرائد في مجال الشبكات العصبية وغالبًا ما يُعتبرون “عرابين” لحركة الذكاء الاصطناعي الحديثة ، كما فعل باحثون بارزون آخرون في هذا المجال ( الحائز على جائزة تورينج الثالثة ، يان ليكون ، الذي يقود جهود Meta البحثية للذكاء الاصطناعي ، لم يوقع حتى يوم الثلاثاء).

يأتي البيان في وقت يتزايد فيه القلق بشأن الأضرار المحتملة للذكاء الاصطناعي. أثارت التطورات الأخيرة في ما يسمى بنماذج اللغة الكبيرة – نوع نظام الذكاء الاصطناعي الذي تستخدمه ChatGPT وروبوتات الدردشة الأخرى – مخاوف من إمكانية استخدام الذكاء الاصطناعي قريبًا على نطاق واسع لنشر المعلومات المضللة والدعاية ، أو أنه قد يقضي على الملايين من وظائف ذوي الياقات البيضاء .

في نهاية المطاف ، يعتقد البعض أن الذكاء الاصطناعي يمكن أن يصبح قويًا بما يكفي بحيث يمكنه إحداث اضطرابات على المستوى المجتمعي في غضون بضع سنوات إذا لم يتم فعل أي شيء لإبطائه ، على الرغم من أن الباحثين في بعض الأحيان يتوقفون عن شرح كيفية حدوث ذلك.

يشترك العديد من قادة الصناعة في هذه المخاوف ، مما يضعهم في موقف غير عادي من القول بأن التكنولوجيا التي يبنونها – وفي كثير من الحالات ، يتسابقون بشدة لبناء أسرع من منافسيهم – تشكل مخاطر جسيمة ويجب تنظيمها بشكل أكثر إحكامًا.

هذا الشهر ، التقى السيد ألتمان والسيد حسابيس والسيد أمودي مع الرئيس بايدن ونائب الرئيس كامالا هاريس للحديث عن تنظيم الذكاء الاصطناعي. في شهادة لمجلس الشيوخ بعد الاجتماع ، حذر السيد ألتمان من أن مخاطر أنظمة الذكاء الاصطناعي المتقدمة خطيرة بما يكفي لتبرير تدخل الحكومة ودعا إلى تنظيم الذكاء الاصطناعي لأضراره المحتملة.

قال دان هندريكس ، المدير التنفيذي لمركز أمان الذكاء الاصطناعي ، في مقابلة إن الرسالة المفتوحة تمثل “خروجًا” لبعض قادة الصناعة الذين أعربوا عن مخاوفهم – ولكن في السر فقط – بشأن مخاطر التكنولوجيا التي كانوا النامية.

قال السيد هندريكس: “هناك مفهوم خاطئ شائع جدًا ، حتى في مجتمع الذكاء الاصطناعي ، وهو أن هناك عددًا قليلاً من المنكوبين”. “ولكن ، في الواقع ، يعرب العديد من الأشخاص بشكل خاص عن مخاوفهم بشأن هذه الأشياء.”

يجادل بعض المتشككين في أن تقنية الذكاء الاصطناعي لا تزال غير ناضجة جدًا لتشكل تهديدًا وجوديًا. عندما يتعلق الأمر بأنظمة الذكاء الاصطناعي الحالية ، فإنهم قلقون بشأن المشكلات قصيرة المدى ، مثل الاستجابات المنحازة وغير الصحيحة ، أكثر من القلق بشأن المخاطر طويلة المدى.

لكن البعض الآخر جادل بأن الذكاء الاصطناعي يتحسن بسرعة كبيرة لدرجة أنه تجاوز بالفعل الأداء على المستوى البشري في بعض المجالات ، وسوف يتفوق عليه قريبًا في مجالات أخرى. يقولون إن التكنولوجيا أظهرت علامات على القدرات المتقدمة والفهم ، مما أثار مخاوف من أن “الذكاء الاصطناعي العام” ، أو AGI ، وهو نوع من الذكاء الاصطناعي يمكن أن يضاهي أو يتجاوز الأداء البشري في مجموعة متنوعة من المهام ، قد لا كن بعيد المنال.

في مدونة الأسبوع الماضي ، اقترح السيد ألتمان واثنين من المسؤولين التنفيذيين الآخرين في OpenAI عدة طرق يمكن من خلالها إدارة أنظمة الذكاء الاصطناعي القوية بطريقة مسؤولة. ودعوا إلى التعاون بين صانعي الذكاء الاصطناعي الرائدين ، وإجراء مزيد من البحوث التقنية في نماذج اللغات الكبيرة ، وتشكيل منظمة سلامة دولية للذكاء الاصطناعي ، على غرار الوكالة الدولية للطاقة الذرية ، التي تسعى إلى التحكم في استخدام الأسلحة النووية.

كما أعرب السيد ألتمان عن دعمه للقواعد التي تتطلب من صانعي نماذج الذكاء الاصطناعي الكبيرة والمتطورة التسجيل للحصول على ترخيص صادر من الحكومة.

في مارس ، وقع أكثر من 1000 تقني وباحث رسالة مفتوحة أخرى تدعو إلى التوقف لمدة ستة أشهر حول تطوير أكبر نماذج الذكاء الاصطناعي ، مشيرين إلى مخاوف بشأن “سباق خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة من أي وقت مضى. “

تم توقيع هذه الرسالة ، التي نظمتها منظمة غير ربحية أخرى تركز على الذكاء الاصطناعي ، وهي Future of Life Institute ، من قبل Elon Musk وغيره من رواد التكنولوجيا المعروفين ، لكنها لم تحمل الكثير من التوقيعات من مختبرات الذكاء الاصطناعي الرائدة.

كان الهدف من إيجاز البيان الجديد الصادر عن مركز أمان الذكاء الاصطناعي – 22 كلمة فقط – هو توحيد خبراء الذكاء الاصطناعي الذين قد يختلفون حول طبيعة المخاطر أو الخطوات المحددة لمنع حدوث هذه المخاطر ، ولكنهم شاركوا مخاوفهم العامة بشأن القوة. قال السيد هندريكس: أنظمة الذكاء الاصطناعي.

قال السيد هندريكس: “لم نرغب في الضغط من أجل قائمة كبيرة جدًا من 30 تدخلاً محتملاً”. “عندما يحدث ذلك ، فإنه يضعف الرسالة.”

تمت مشاركة البيان في البداية مع عدد قليل من خبراء الذكاء الاصطناعي البارزين ، بما في ذلك السيد هينتون ، الذي استقال من وظيفته في Google هذا الشهر حتى يتمكن من التحدث بحرية أكبر ، كما قال ، حول الأضرار المحتملة للذكاء الاصطناعي. من هناك ، شق طريقه إلى العديد من مختبرات الذكاء الاصطناعي الرئيسية ، حيث قام بعض الموظفين بتسجيل الدخول.

ازدادت الحاجة الملحة لتحذيرات قادة الذكاء الاصطناعي مع تحول ملايين الأشخاص إلى روبوتات الدردشة بالذكاء الاصطناعي للترفيه والرفقة وزيادة الإنتاجية ، ومع تحسن التكنولوجيا الأساسية في مقطع سريع.

قال السيد ألتمان أمام اللجنة الفرعية لمجلس الشيوخ: “أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فيمكن أن تسوء تمامًا”. “نريد العمل مع الحكومة لمنع حدوث ذلك.”


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading