اخبار

هل يجب أن تتحكم الخوارزميات في رموز إطلاق الأسلحة النووية؟ الولايات المتحدة تقول لا


الخميس الماضي ، حددت وزارة الخارجية الأمريكية رؤية جديدة لتطوير واختبار والتحقق من الأنظمة العسكرية – بما في ذلك الأسلحة – التي تستخدم الذكاء الاصطناعي.

يمثل الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية محاولة من قبل الولايات المتحدة لتوجيه تطوير الذكاء الاصطناعي العسكري في وقت حاسم بالنسبة للتكنولوجيا. لا تُلزم الوثيقة الجيش الأمريكي قانونًا ، لكن الأمل هو أن توافق الدول الحليفة على مبادئها ، مما يخلق نوعًا من المعايير العالمية لبناء أنظمة الذكاء الاصطناعي بشكل مسؤول.

من بين أمور أخرى ، ينص الإعلان على أن الذكاء الاصطناعي العسكري يحتاج إلى تطوير وفقًا للقوانين الدولية ، وأن الدول يجب أن تكون شفافة بشأن المبادئ التي تقوم عليها تقنيتها ، وأنه يتم تنفيذ معايير عالية للتحقق من أداء أنظمة الذكاء الاصطناعي. كما تقول أن على البشر وحدهم اتخاذ قرارات بشأن استخدام الأسلحة النووية.

عندما يتعلق الأمر بأنظمة الأسلحة المستقلة ، فقد طمأن القادة العسكريون الأمريكيون في كثير من الأحيان إلى أن الإنسان سيبقى “في الحلقة” لاتخاذ قرارات بشأن استخدام القوة المميتة. لكن السياسة الرسمية ، التي أصدرتها وزارة الدفاع لأول مرة في عام 2012 وتم تحديثها هذا العام ، لا تتطلب أن يكون هذا هو الحال.

لقد باءت محاولات صياغة حظر دولي على الأسلحة ذاتية التشغيل بلا جدوى حتى الآن. لقد دفع الصليب الأحمر الدولي ومجموعات الحملات مثل Stop Killer Robots من أجل التوصل إلى اتفاق في الأمم المتحدة ، لكن بعض القوى الكبرى – الولايات المتحدة وروسيا وإسرائيل وكوريا الجنوبية وأستراليا – أثبتت عدم استعدادها للالتزام.

أحد الأسباب هو أن الكثيرين داخل البنتاغون يرون أن زيادة استخدام الذكاء الاصطناعي عبر الجيش ، بما في ذلك خارج الأنظمة غير الأسلحة ، أمر حيوي وحتمي. وهم يجادلون بأن الحظر من شأنه أن يبطئ تقدم الولايات المتحدة ويعيق تقنيتها بالنسبة لخصوم مثل الصين وروسيا. أظهرت الحرب في أوكرانيا مدى سرعة الاستقلالية في شكل طائرات بدون طيار رخيصة يمكن التخلص منها ، والتي أصبحت أكثر قدرة بفضل خوارزميات التعلم الآلي التي تساعدهم على الإدراك والتصرف ، يمكن أن يساعد في توفير ميزة في الصراع.

في وقت سابق من هذا الشهر ، كتبت عن المهمة الشخصية للرئيس التنفيذي لشركة Google ، إريك شميدت ، لتطوير الذكاء الاصطناعي في البنتاغون لضمان عدم تخلف الولايات المتحدة عن الصين. لقد كانت مجرد قصة واحدة ظهرت من الأشهر التي أمضيتها في الإبلاغ عن الجهود المبذولة لتبني الذكاء الاصطناعي في الأنظمة العسكرية الحساسة ، وكيف أصبح ذلك أمرًا محوريًا للاستراتيجية العسكرية الأمريكية – حتى لو ظلت العديد من التقنيات المعنية ناشئة وغير مختبرة في أي أزمة.

رحبت لورين كان ، الزميلة البحثية في مجلس العلاقات الخارجية ، بالإعلان الأمريكي الجديد باعتباره لبنة بناء محتملة لاستخدام أكثر مسؤولية للذكاء الاصطناعي العسكري في جميع أنحاء العالم.

محتوى Twitter

يمكن أيضًا عرض هذا المحتوى على الموقع ينشأ من.

تمتلك قلة من الدول بالفعل أسلحة تعمل دون سيطرة بشرية مباشرة في ظروف محدودة ، مثل الدفاعات الصاروخية التي تحتاج إلى الرد بسرعة خارقة حتى تكون فعالة. قد يعني الاستخدام الأكبر للذكاء الاصطناعي المزيد من السيناريوهات حيث تعمل الأنظمة بشكل مستقل ، على سبيل المثال عندما تعمل الطائرات بدون طيار خارج نطاق الاتصالات أو في أسراب معقدة للغاية بحيث يتعذر على أي إنسان إدارتها.

لا تزال بعض التصريحات حول الحاجة إلى الذكاء الاصطناعي في الأسلحة ، خاصة من الشركات التي تطور التكنولوجيا ، بعيدة المنال بعض الشيء. وردت تقارير عن استخدام أسلحة مستقلة بالكامل في النزاعات الأخيرة وعن مساعدة الذكاء الاصطناعي في الضربات العسكرية المستهدفة ، لكن لم يتم التحقق من ذلك ، وفي الحقيقة قد يكون العديد من الجنود حذرين من الأنظمة التي تعتمد على خوارزميات بعيدة كل البعد عن الخطأ.

ومع ذلك ، إذا لم يتم حظر الأسلحة المستقلة ، فسيستمر تطويرها. وهذا سيجعل من الضروري التأكد من أن الذكاء الاصطناعي المعني يتصرف كما هو متوقع – حتى لو كانت الهندسة المطلوبة لتفعيل النوايا بشكل كامل مثل تلك الواردة في الإعلان الأمريكي الجديد لم يتم إتقانها بعد.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى