علوم تكنولوجية

أبرزها تجنب تحيز الخوارزميات.. البيت الأبيض يضع مبادئ توجيهية للذكاء الاصطناعى

نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “أبرزها تجنب تحيز الخوارزميات.. البيت الأبيض يضع مبادئ توجيهية للذكاء الاصطناعى”


اتخذ البيت الأبيض اليوم خطوة إلى الأمام في تنفيذ قانون العمل من خلال سياسة تهدف إلى تنظيم استخدام الحكومة الفيدرالية للذكاء الاصطناعي، وتشمل الضمانات التي يجب أن تتوفر لدى الوكالات، من بين أمور أخرى، طرقًا للتخفيف من مخاطر التحيز الخوارزمي.


وفقا لما ذكره موقع “engadget”، قالت نائبة الرئيس الأمريكي، كامالا هاريس، “أعتقد أن جميع القادة من الحكومة والمجتمع المدني والقطاع الخاص لديهم واجب أخلاقي وأخلاقي ومجتمعي للتأكد من اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي الجمهور من الضرر المحتمل مع ضمان قدرة الجميع على الاستمتاع بفوائده”.


أعلنت هاريس عن ثلاثة متطلبات ملزمة بموجب سياسة مكتب الإدارة والميزانية الجديدة (OMB)، حيث ستحتاج الوكالات إلى التأكد من أن أي أدوات للذكاء الاصطناعي تستخدمها “لا تعرض حقوق الشعب الأمريكي وسلامته للخطر”،  وأمامهم حتى الأول من ديسمبر للتأكد من أن لديهم “ضمانات ملموسة” للتأكد من أن أنظمة الذكاء الاصطناعي التي يستخدمونها لا تؤثر على سلامة الأمريكيين أو حقوقهم. وبخلاف ذلك، سيتعين على الوكالة التوقف عن استخدام منتج الذكاء الاصطناعي ما لم يتمكن قادتها من تبرير أن إلغاء النظام سيكون له تأثير غير مقبول على العمليات الحيوية.


وفقًا لهذه السياسة، يعد نظام الذكاء الاصطناعي مؤثرًا على السلامة إذا تم استخدامه أو من المتوقع استخدامه، في ظروف العالم الحقيقي، للتحكم أو التأثير بشكل كبير على نتائج بعض الأنشطة والقرارات.


وتشمل هذه الحفاظ على نزاهة الانتخابات والبنية التحتية للتصويت؛ التحكم في وظائف السلامة الحيوية للبنية التحتية مثل أنظمة المياه وخدمات الطوارئ والشبكات الكهربائية؛ المركبات ذاتية القيادة؛ وتشغيل الحركات الجسدية للروبوتات في “مكان العمل أو المدرسة أو السكن أو النقل أو المجال الطبي أو مكان إنفاذ القانون”.


وما لم يكن لديها ضمانات مناسبة أو يمكنها تبرير استخدامها بطريقة أخرى، سيتعين على الوكالات أيضًا التخلص من أنظمة الذكاء الاصطناعي التي تنتهك حقوق الأمريكيين.


تشمل الأغراض التي تفترض السياسة أنها تؤثر على الحقوق، العمل الشرطي التنبؤي؛ ومراقبة وسائل التواصل الاجتماعي لأغراض إنفاذ القانون؛ حظر أو تقييد الكلام المحمي؛ كشف أو قياس المشاعر والأفكار البشرية؛ الفحص قبل التوظيف؛ وتقليد شكل الشخص أو صوته دون موافقة صريحة.


عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي، تنص السياسة على أنه ينبغي للوكالات تقييم الفوائد المحتملة، ويتعين عليهم جميعًا أيضًا إنشاء ضمانات وآليات مراقبة كافية تسمح باستخدام الذكاء الاصطناعي التوليدي في الوكالة دون فرض مخاطر لا داعي لها.


متطلبات الشفافية


أما المطلب الثاني فسيجبر الوكالات على التحلي بالشفافية بشأن أنظمة الذكاء الاصطناعي التي تستخدمها، وقالت هاريس: “اليوم، نطلب أنا والرئيس بايدن أن تنشر الوكالات الحكومية الأمريكية كل عام على الإنترنت قائمة بأنظمة الذكاء الاصطناعي الخاصة بها، وتقييمًا للمخاطر التي قد تشكلها تلك الأنظمة وكيفية إدارة تلك المخاطر”.


وكجزء من هذا الجهد، ستحتاج الوكالات إلى نشر أكواد ونماذج وبيانات الذكاء الاصطناعي المملوكة للحكومة، طالما أن ذلك لن يضر بالعمليات العامة أو الحكومية.


إذا لم تتمكن الوكالة من الكشف عن حالات استخدام محددة للذكاء الاصطناعي لأسباب تتعلق بالحساسية، فلا يزال يتعين عليها الإبلاغ عن المقاييس.




ستحتاج الوكالات الفيدرالية إلى وجود رقابة داخلية على استخدامها للذكاء الاصطناعي، ويتضمن ذلك قيام كل قسم بتعيين مسؤول رئيسي للذكاء الاصطناعي للإشراف على جميع استخدامات الوكالة للذكاء الاصطناعي.




وأشارت هاريس إلى أن “هذا هو التأكد من استخدام الذكاء الاصطناعي بشكل مسؤول، مع إدراك أنه يجب أن يكون لدينا قادة كبار في حكومتنا مكلفون على وجه التحديد بالإشراف على اعتماد الذكاء الاصطناعي واستخدامه”.


ستحتاج العديد من الوكالات أيضًا إلى إنشاء مجالس إدارة للذكاء الاصطناعي بحلول 27 مايو.




وأضافت نائب الرئيس أن شخصيات بارزة من القطاعين العام والخاص، بما في ذلك قادة الحقوق المدنية وعلماء الكمبيوتر، ساعدت في تشكيل السياسة جنبًا إلى جنب مع قادة الأعمال وعلماء القانون.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading