أداوت وتكنولوجيا

كيف سيبدو تنظيم الذكاء الاصطناعي؟


صورة للمقال بعنوان كيف سيبدو تنظيم الذكاء الاصطناعي؟

صورة: فوز ماكنامي (صور جيتي)

الوجبات الجاهزة:

  • تبدو الوكالة الفيدرالية الجديدة لتنظيم الذكاء الاصطناعي مفيدة ، لكنها قد تتأثر بشكل غير ملائم بصناعة التكنولوجيا. بدلاً من ذلك ، يمكن للكونغرس أن يشرّع المساءلة.
  • بدلاً من ترخيص الشركات لإطلاق تقنيات الذكاء الاصطناعي المتقدمة ، يمكن للحكومة أن تمنح تراخيص لمراجعي الحسابات وتدفع الشركات إلى إنشاء مجالس مراجعة مؤسسية.
  • لم تحقق الحكومة نجاحًا كبيرًا في كبح احتكارات التكنولوجيا ، لكن متطلبات الإفصاح وقوانين خصوصية البيانات يمكن أن تساعد في التحقق من قوة الشركات.

حث الرئيس التنفيذي لشركة OpenAI ، سام التمان ، المشرعين على النظر في تنظيم الذكاء الاصطناعي أثناء ذلك شهادته في مجلس الشيوخ في 16 مايو 2023. تثير هذه التوصية التساؤل عما سيأتي بعد ذلك للكونغرس. الحلول التي اقترحها ألتمان – إنشاء وكالة تنظيمية للذكاء الاصطناعي تتطلب ترخيصًا للشركات – مثيرة للاهتمام. لكن ما اقترحه الخبراء الآخرون في نفس اللجنة لا يقل أهمية عن ذلك على الأقل: تتطلب الشفافية في بيانات التدريب و وضع أطر عمل واضحة للمخاطر المتعلقة بالذكاء الاصطناعي.

هناك نقطة أخرى لم تُذكر وهي أنه نظرًا لاقتصاديات بناء نماذج ذكاء اصطناعي واسعة النطاق ، ربما تشهد الصناعة ظهور نوع جديد من احتكار التكنولوجيا.

كباحث دراسات وسائل التواصل الاجتماعي والذكاء الاصطناعي، أعتقد أن اقتراحات ألتمان قد أبرزت قضايا مهمة ولكنها لا تقدم إجابات في حد ذاتها. قد يكون التنظيم مفيدًا ، لكن بأي شكل؟ الترخيص أيضا له معنى ، ولكن لمن؟ وأي جهد لتنظيم صناعة الذكاء الاصطناعي يجب أن يأخذ في الحسبان القوة الاقتصادية للشركات وتأثيرها السياسي.

وكالة لتنظيم الذكاء الاصطناعي؟

بدأ المشرعون وصناع السياسات في جميع أنحاء العالم بالفعل في معالجة بعض القضايا التي أثيرت في شهادة ألتمان. ال قانون الذكاء الاصطناعي للاتحاد الأوروبي يعتمد على نموذج المخاطر الذي يخصص تطبيقات الذكاء الاصطناعي لثلاث فئات من المخاطر: غير مقبول ، وعالي الخطورة ، ومخاطر منخفضة أو قليلة. هذا التصنيف يعترف بأن أدوات التهديف الاجتماعي من قبل الحكومات و أدوات آلية للتوظيف تشكل مخاطر مختلفة عن تلك الناجمة عن استخدام الذكاء الاصطناعي في عوامل تصفية البريد العشوائي ، على سبيل المثال.

المعهد الوطني الأمريكي للمعايير والتكنولوجيا لديه بالمثل إطار عمل إدارة مخاطر الذكاء الاصطناعي الذي تم إنشاؤه مع مدخلات واسعة النطاق من العديد من أصحاب المصلحة، بما في ذلك غرفة التجارة الأمريكية واتحاد العلماء الأمريكيين ، فضلاً عن الجمعيات التجارية والمهنية الأخرى ، وشركات التكنولوجيا ومراكز الفكر.

الوكالات الفيدرالية مثل لجنة تكافؤ فرص العمل و ال لجنة التجارة الفيدرالية أصدرت بالفعل إرشادات بشأن بعض المخاطر الكامنة في الذكاء الاصطناعي. لجنة سلامة المنتجات الاستهلاكية والوكالات الأخرى لها دور تلعبه أيضًا.

بدلاً من إنشاء وكالة جديدة تدير خطر التعرض للخطر من خلال صناعة التكنولوجيا التي تهدف إلى تنظيمها ، يمكن للكونغرس دعم تبني القطاعين العام والخاص لـ إطار عمل إدارة المخاطر NIST وتمرير فواتير مثل قانون المساءلة الحسابية. من شأن ذلك أن يكون له تأثير فرض المساءلة، بقدر قانون ساربينز أوكسلي ولوائح أخرى حولت متطلبات تقديم التقارير للشركات. يمكن للكونغرس أيضا اعتماد قوانين شاملة حول خصوصية البيانات.

يجب أن يشمل تنظيم الذكاء الاصطناعي التعاون بين الأوساط الأكاديمية والصناعة وخبراء السياسة والوكالات الدولية. وقد شبّه الخبراء هذا النهج بـ منظمات دولية مثل المنظمة الأوروبية للأبحاث النووية ، والمعروفة باسم CERN ، و الهيئة الحكومية الدولية المعنية بتغير المناخ. لقد كان الإنترنت اديرت من قبل الهيئات غير الحكومية التي تشمل المنظمات غير الربحية والمجتمع المدني والصناعة وصانعي السياسات ، مثل شركة الإنترنت للأسماء والأرقام المخصصة و ال الجمعية العالمية لتقييس الاتصالات. تقدم هذه الأمثلة نماذج للصناعة وصانعي السياسات اليوم.

https://www.youtube.com/watch؟v=JL5OFXeXenA

يشرح العالم المعرفي ومطور الذكاء الاصطناعي غاري ماركوس الحاجة إلى تنظيم الذكاء الاصطناعي.

ترخيص مدققي الحسابات وليس الشركات

على الرغم من أن ألتمان من OpenAI اقترح أنه يمكن ترخيص الشركات لإطلاق تقنيات الذكاء الاصطناعي للجمهور ، فقد أوضح أنه كذلك في اشارة الى الذكاء الاصطناعي العام، مما يعني أنظمة الذكاء الاصطناعي المستقبلية المحتملة ذات الذكاء البشري الذي يمكن أن يشكل تهديدًا للبشرية. سيكون ذلك أقرب إلى ترخيص الشركات للتعامل مع تقنيات أخرى يحتمل أن تكون خطرة ، مثل الطاقة النووية. لكن الترخيص يمكن أن يلعب دورًا جيدًا قبل حدوث مثل هذا السيناريو المستقبلي.

التدقيق الحسابي قد يتطلب الاعتمادومعايير الممارسة والتدريب المكثف. إن طلب المساءلة ليس مجرد مسألة ترخيص للأفراد ولكنه يتطلب أيضًا معايير وممارسات على مستوى الشركة.

يؤكد خبراء عدالة الذكاء الاصطناعي أن قضايا التحيز والإنصاف في الذكاء الاصطناعي لا يمكن معالجتها بالطرق التقنية وحدها ولكنها تتطلب ممارسات أكثر شمولاً لتخفيف المخاطر مثل اعتماد مجالس المراجعة المؤسسية للذكاء الاصطناعي. تساعد مجالس المراجعة المؤسسية في المجال الطبي على دعم الحقوق الفردية ، على سبيل المثال.

وبالمثل ، اعتمدت الهيئات الأكاديمية والجمعيات المهنية معايير الاستخدام المسؤول للذكاء الاصطناعي ، سواء كان الأمر كذلك معايير التأليف للنص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو معايير تبادل البيانات بوساطة المريض في الطب.

إن تعزيز القوانين الحالية المتعلقة بسلامة المستهلك وخصوصيته وحمايته مع إدخال معايير المساءلة الحسابية من شأنه أن يساعد في إزالة الغموض عن أنظمة الذكاء الاصطناعي المعقدة. من المهم أيضًا إدراك أن زيادة المساءلة والشفافية في البيانات قد تفرض قيودًا جديدة على المؤسسات.

دعا علماء خصوصية البيانات وأخلاقيات الذكاء الاصطناعي إلى “العملية القانونية الواجبة“وأطر التعرف على أضرار العمليات التنبؤية. يستدعي الاستخدام الواسع النطاق لصنع القرار باستخدام الذكاء الاصطناعي في مجالات مثل التوظيف والتأمين والرعاية الصحية متطلبات الترخيص والتدقيق لضمان عدالة الإجراءات وضمانات الخصوصية.

ومع ذلك ، فإن طلب أحكام المساءلة هذه يتطلب أ مناقشة قوية بين مطوري الذكاء الاصطناعي وواضعي السياسات والمتأثرين بالنشر الواسع للذكاء الاصطناعي. في ال عدم وجود ممارسات مساءلة حسابية قوية، الخطر عمليات تدقيق ضيقة تعزز المظهر من الامتثال.

احتكارات الذكاء الاصطناعي؟

ما كان مفقودًا أيضًا في شهادة ألتمان هو مدى الاستثمار مطلوبة لتدريب نماذج الذكاء الاصطناعي واسعة النطاق ، سواء كانت كذلك GPT-4، وهو أحد أسس الدردشة، أو منشئ النص إلى صورة انتشار مستقر. فقط عدد قليل من الشركات ، مثل Google و Meta و Amazon و Microsoft ، هي المسؤولة عن ذلك تطوير أكبر النماذج اللغوية في العالم.

نظرًا لغياب الشفافية في بيانات التدريب التي تستخدمها هذه الشركات ، فقد حذر خبراء أخلاقيات الذكاء الاصطناعي تيمنيت جيبرو وإميلي بيندر وآخرون من تبني مثل هذه التقنيات على نطاق واسع دون مخاطر الرقابة المقابلة. تضخيم تحيز الآلة على نطاق مجتمعي.

من المهم أيضًا الاعتراف بأن بيانات التدريب الخاصة بأدوات مثل ChatGPT تتضمن العمل الفكري لمجموعة من الأشخاص مثل المساهمين في Wikipedia والمدونين ومؤلفي الكتب الرقمية. ومع ذلك ، فإن الفوائد الاقتصادية من هذه الأدوات تعود فقط على شركات التكنولوجيا.

قد يكون إثبات قوة احتكار شركات التكنولوجيا أمرًا صعبًا ، كما هو الحال في قضية مكافحة الاحتكار في وزارة العدل ضد مايكروسوفت مُبَرهن. أعتقد أن الخيارات التنظيمية الأكثر جدوى للكونغرس لمعالجة الأضرار الخوارزمية المحتملة من الذكاء الاصطناعي قد تكون تعزيز متطلبات الإفصاح لشركات الذكاء الاصطناعي ومستخدمي الذكاء الاصطناعي على حد سواء ، والحث على الاعتماد الشامل لأطر تقييم مخاطر الذكاء الاصطناعي ، والمطالبة بعمليات تحمي البيانات الفردية الحقوق والخصوصية.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعي، أو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.

أنجانا سوسارلاأستاذ نظم المعلومات ، جامعة ولاية ميشيغان

تم إعادة نشر هذه المقالة من المحادثة بموجب رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading