ثانيًا ، يمكن أن يوجه أي وكالة فيدرالية تشتري نظامًا للذكاء الاصطناعي لديه القدرة على “التأثير بشكل هادف [our] الحقوق أو الفرص أو الوصول إلى الموارد أو الخدمات الهامة “للمطالبة بأن يمتثل النظام لهذه الممارسات وأن يقدم البائعون دليلًا على هذا الامتثال. هذا يعترف بسلطة الحكومة الفيدرالية كعميل لتشكيل ممارسات الأعمال. بعد كل شيء ، هو أكبر صاحب عمل في الدولة ويمكنه استخدام قوته الشرائية لإملاء أفضل الممارسات للخوارزميات المستخدمة ، على سبيل المثال ، لفحص واختيار المرشحين للوظائف.
ثالثًا ، قد يطلب الأمر التنفيذي من أي شخص يأخذ دولارات فيدرالية (بما في ذلك الكيانات الحكومية والمحلية) ضمان امتثال أنظمة الذكاء الاصطناعي التي يستخدمها لهذه الممارسات. هذا يعترف بالدور المهم للاستثمار الفيدرالي في الولايات والمحليات. على سبيل المثال ، لقد تورطت منظمة العفو الدولية في العديد من مكونات نظام العدالة الجنائية ، بما في ذلك الشرطة التنبؤية ، والمراقبة ، والحبس قبل المحاكمة ، وإصدار الأحكام ، والإفراج المشروط. على الرغم من أن معظم ممارسات إنفاذ القانون محلية ، إلا أن وزارة العدل تقدم منحًا فيدرالية لسلطات إنفاذ القانون على مستوى الولاية والمحلية ويمكنها إرفاق شروط بهذه الأموال تنص على كيفية استخدام التكنولوجيا.
أخيرًا ، يمكن أن يوجه هذا الأمر التنفيذي الوكالات التي تتمتع بسلطة تنظيمية لتحديث وتوسيع عملية وضع القواعد الخاصة بها إلى العمليات داخل نطاق اختصاصها والتي تشمل الذكاء الاصطناعي. بعض الجهود الأولية لتنظيم الكيانات التي تستخدم الذكاء الاصطناعي مع الأجهزة الطبية وخوارزميات التوظيف والتسجيل الائتماني جارية بالفعل ، ويمكن توسيع هذه المبادرات بشكل أكبر. تعد أنظمة مراقبة العمال وتقييم الممتلكات مجرد مثالين على المجالات التي قد تستفيد من هذا النوع من الإجراءات التنظيمية.
بالطبع ، من المرجح أن يثير نظام الاختبار والمراقبة لأنظمة الذكاء الاصطناعي التي أشرت إليها هنا مجموعة من المخاوف. قد يجادل البعض ، على سبيل المثال ، بأن دولًا أخرى سوف تتفوق علينا إذا تباطأنا في تنفيذ مثل هذه الحواجز. لكن هناك دولًا أخرى منشغلة في تمرير قوانينها الخاصة التي تفرض قيودًا واسعة النطاق على أنظمة الذكاء الاصطناعي ، وأي شركة أمريكية تسعى للعمل في هذه البلدان يجب أن تمتثل لقواعدها. يوشك الاتحاد الأوروبي على إصدار قانون ذكاء اصطناعي موسع يتضمن العديد من الأحكام التي وصفتها أعلاه ، وحتى الصين تضع قيودًا على أنظمة الذكاء الاصطناعي المنتشرة تجاريًا والتي تتجاوز بكثير ما نرغب في النظر فيه حاليًا.
قد يعرب آخرون عن قلقهم من أن هذه المجموعة الواسعة من المتطلبات قد يكون من الصعب على شركة صغيرة الامتثال لها. يمكن معالجة ذلك من خلال ربط المتطلبات بدرجة التأثير: يجب فحص جزء من البرامج التي يمكن أن تؤثر على سبل عيش الملايين بدقة ، بغض النظر عن حجم المطور أو صغر حجمه. يجب ألا يخضع نظام الذكاء الاصطناعي الذي يستخدمه الأفراد للأغراض الترفيهية لنفس القيود والقيود.
من المحتمل أيضًا أن تكون هناك مخاوف بشأن ما إذا كانت هذه المتطلبات عملية. هنا مرة أخرى ، من المهم عدم الاستهانة بسلطة الحكومة الفيدرالية كصانع للسوق. سيوفر الأمر التنفيذي الذي يدعو إلى أطر الاختبار والتحقق حوافز للشركات التي ترغب في ترجمة أفضل الممارسات إلى أنظمة اختبار تجارية قابلة للتطبيق. يمتلئ قطاع الذكاء الاصطناعي المسؤول بالفعل بالشركات التي تقدم خدمات التدقيق والتقييم الخوارزمية ، والاتحادات الصناعية التي تصدر إرشادات مفصلة من المتوقع أن يلتزم بها البائعون ، والشركات الاستشارية الكبيرة التي تقدم إرشادات لعملائها. كما أن الكيانات المستقلة غير الربحية مثل البيانات والمجتمع (إخلاء المسئولية: أجلس في مجلس إدارتها) أنشأت مختبرات كاملة لتطوير أدوات لتقييم كيفية تأثير أنظمة الذكاء الاصطناعي على مجموعات سكانية مختلفة.
لقد أجرينا البحث ، وبنينا الأنظمة ، وحددنا الأضرار. هناك طرق راسخة للتأكد من أن التكنولوجيا التي نبنيها وننشرها يمكن أن تفيدنا جميعًا مع تقليل الأضرار التي تلحق بهؤلاء الذين يعانون بالفعل من مجتمع غير متكافئ للغاية. لقد انتهى وقت الدراسة – يحتاج البيت الأبيض الآن إلى إصدار أمر تنفيذي واتخاذ الإجراءات اللازمة.
رأي سلكي تنشر مقالات من قبل مساهمين خارجيين يمثلون مجموعة واسعة من وجهات النظر. اقرأ المزيد من الآراء هنا. إرسال افتتاحية في ideas@wired.com.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.