القمة الأولى حول أسلحة الذكاء الاصطناعي لم تفعل شيئًا من أجل حقوق الإنسان

القمة الأولى حول أسلحة الذكاء الاصطناعي لم تفعل شيئًا من أجل حقوق الإنسان


صورة: شون جالوب (صور جيتي)

عند المندوبين من 50 دولة اجتمع في هولندا هذا الأسبوع لمناقشة مستقبل الجيش الذكاء الاصطناعي، بشر حقوق النشطاء وخبراء عدم الانتشار رأى فرصة. لسنوات، اجهزةمجموعات hts يملك شrged الدول لتقييد ديفلوبمنت أسلحة الذكاء الاصطناعي والتوقيع على معاهدة ملزمة قانونًا لتقييد استخدامها بسبب المخاوف من أن تنميتها غير المقيدة قد تعكس الماضي القرن سباق التسلح النووي. بدلا من ذلك ، فإن نتائج ما كان يمكن أن يكون تاريخي كانت القمة فقط تزيين النوافذ “الضعيف” ، قالت الجماعات الحقوقية.

بعد يومين من المحادثات المتعمقة ، والعروض التقديمية التي أنتجها حوالي 2500 من خبراء الذكاء الاصطناعي وقادة الصناعة ، و REAIM (احصل عليه؟) انتهت قمة غير ملزمة قانونًا “دعوة للعملحول التطوير المسؤول للذكاء الاصطناعي العسكري ونشره واستخدامه. واتفق الحاضرون أيضًا على إنشاء “لجنة عالمية للذكاء الاصطناعي”. قد يبدو هذا نبيلاً، لكن في الحقيقة، تقتصر هذه المبادرات على “زيادة الوعي” حول كيفية تصنيع التكنولوجيا بطريقة مسؤولة. كانت المحادثات الهادفة حول الحد من أسلحة الذكاء الاصطناعي أو الحد منها في الأساس غير مطروحة على الطاولة.

صرحت حملة Stop Killer Robots ، وهي إحدى المجموعات الحقوقية الرائدة التي تدافع عن الذكاء الاصطناعي في الحرب ، لـ Gizmodo بأن إجراء الدعوة يقدم “رؤية غامضة وغير صحيحة” للاستخدام العسكري للذكاء الاصطناعي دون أي سبب لتوضيح القواعد أو القيود. Safe Ground ، وهي مجموعة حقوقية أسترالية ، دعا القمة بأكملها أ “فرصة ضائعة.”

في نفس الوقت رهي الولايات المتحدة ، وهي رائدة العالم في أنظمة أسلحة الذكاء الاصطناعي و تاريخيا كشف أحد الأصوات البارزة ضد معاهدة أسلحة منظمة العفو الدولية عن أ 12 نقطة إعلان سياسي تحديد استراتيجية الأنظمة المستقلة “المسؤولة”. الإعلان الذي يأتي بعد أسابيع قليلة من صدور وزارة الدفاع الجديدة المثيرة للجدل التوجيه على الذكاء الاصطناعي ، يقول إن جميع أنظمة الذكاء الاصطناعي يجب أن تلتزم بالقوانين الدولية لحقوق الإنسان ولديهم “مستويات مناسبة من الحكم البشري”. على الرغم من وزارة الخارجية أعلن المسؤولون منتصرين الإعلان كخطوة محورية إلى الأمام ، وقالت الجماعات الحقوقية التي تقاتل للحد من نظام أسلحة الذكاء الاصطناعي إنها كارثة كاملة.

قالت ماري ويرهام ، مديرة الدفاع عن الأسلحة في هيومن رايتس ووتش ، في تغريدة على تويتر: “الآن ليس الوقت المناسب لكي تتلاعب الدول بالإعلانات السياسية المعيبة”.. ذهب مدير العلاقات الحكومية Stop Killer Robots ، عثمان نور ، إلى أبعد من ذلك ودعا الإعلان “الموقف الأكثر رجعية الذي شوهد من أي دولة ، منذ سنوات.”

وقالت شركة Stop Killer Robots في بيان: “هذا الإعلان لا يرقى بشكل كبير إلى الإطار الدولي الذي دعت إليه غالبية الدول في مناقشات الأمم المتحدة”. “إنها لا ترى الحاجة إلى قواعد ملزمة قانونًا ، وتسمح بدلاً من ذلك بتطوير واستخدام أنظمة الأسلحة المستقلة ، في غياب خطوط المقبولية.”

بالنسبة للمشككين العسكريين في الذكاء الاصطناعي ، فإن أول-ل-إنه-عطوف كان ينظر إلى القمة في الواقع على أنها خطوة في الاتجاه الخاطئ. قبل القمة ، كانت أغلبية من 125 دولة ممثلة في يو.ن.الاتفاقية الخاصة بأسلحة تقليدية معينة أعربوا عن اهتمامهم بقوانين جديدة تحظر بشكل أساسي تطوير الأسلحة المستقلة خلال مؤتمر العام الماضي. الأمين العام للأمم المتحدة أنطونيو غوتيريش صدر أ إفادة في نفس الوقت تقريبا قائلا إن مثل هذه الأنظمة يجب أن تكون محظورة بموجب القانون الدولي. فشلت هذه الجهود إلى حد كبير بسبب الولايات المتحدة ، الصين وروسيا ، وكلها تؤيد تطوير هذه الأسلحة. كانت آراء هذه البلدان الثلاثة في السابق متطرفة في الأمم المتحدة الآن ، في ظل الإطار الجديد ، يبدو أنه أمر مفروغ منه أن أنظمة الأسلحة المستقلة ضرورية و لا مفر منه.

دولة واحدة بارزة لا ممثلة من بين 50 دولة أو نحو ذلك في REAIM قمة؟ روسيا، بسبب حربها المستمرة مع أوكرانيا. حاضرًا أم لا ، تمت مناقشة روسيا وأوكرانيا طوال القمة كواحد من مناطق الاختبار المحتملة لتكنولوجيا عسكرية جديدة ومستقلة بالكامل. أوكرانيا بالفعل يقال تستخدم طائرات بدون طيار هجومية شبه مستقلة و التعرف على الوجه Clearview AI خدمة لتحديد القتلى من القوات الروسية.

إليك بعض أهم الأحداث في القمة.



Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *