صناعة وابتكار

البيت الأبيض يكشف عن مبادرات لتقليل مخاطر الذكاء الاصطناعي


أعلن البيت الأبيض يوم الخميس عن أولى مبادراته الجديدة التي تهدف إلى ترويض مخاطر الذكاء الاصطناعي منذ أن أدى ازدهار روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى تزايد الدعوات لتنظيم التكنولوجيا.

قال مسؤولو البيت الأبيض إن مؤسسة العلوم الوطنية تخطط لإنفاق 140 مليون دولار على مراكز بحثية جديدة مخصصة للذكاء الاصطناعي. كما تعهدت الإدارة بإصدار مسودة مبادئ توجيهية للوكالات الحكومية لضمان أن استخدامها للذكاء الاصطناعي يحمي “حقوق الشعب الأمريكي وسلامته” ، مضيفة أن العديد من شركات الذكاء الاصطناعي وافقت على إتاحة منتجاتها للتدقيق في أغسطس في مؤتمر للأمن السيبراني.

جاءت الإعلانات قبل ساعات من لقاء نائب الرئيس كامالا هاريس ومسؤولين إداريين آخرين مع الرؤساء التنفيذيين لشركة Google و Microsoft و OpenAI ، الشركة المصنعة لبرنامج ChatGPT chatbot الشهير ، و Anthropic ، وهي شركة ناشئة للذكاء الاصطناعي ، لمناقشة التكنولوجيا. قال مسؤول كبير في الإدارة يوم الأربعاء إن البيت الأبيض يعتزم إقناع الشركات بأنها تتحمل مسؤولية معالجة مخاطر التطورات الجديدة للذكاء الاصطناعي ، ويتعرض البيت الأبيض لضغوط متزايدة للرقابة على الذكاء الاصطناعي القادر على صياغة نثر متطور و صور نابضة بالحياة. بدأ انفجار الاهتمام بالتكنولوجيا العام الماضي عندما أطلقت شركة OpenAI ChatGPT للجمهور وبدأ الناس على الفور في استخدامها للبحث عن المعلومات والقيام بالأعمال المدرسية ومساعدتهم في عملهم. منذ ذلك الحين ، سارعت بعض أكبر شركات التكنولوجيا إلى دمج روبوتات الدردشة في منتجاتها وتسريع أبحاث الذكاء الاصطناعي ، بينما قام أصحاب رأس المال الاستثماري بضخ الأموال في الشركات الناشئة في مجال الذكاء الاصطناعي.

لكن طفرة الذكاء الاصطناعي أثارت أيضًا تساؤلات حول الكيفية التي ستعمل بها التكنولوجيا على تحويل الاقتصادات ، وهز الجغرافيا السياسية ، وتعزيز النشاط الإجرامي. أعرب النقاد عن قلقهم من أن العديد من أنظمة الذكاء الاصطناعي غامضة ولكنها قوية للغاية ، مع إمكانية اتخاذ قرارات تمييزية ، واستبدال الأشخاص في وظائفهم ، ونشر معلومات مضللة ، وربما حتى خرق القانون من تلقاء نفسها.

قال الرئيس بايدن مؤخرًا إنه “يبقى أن نرى” ما إذا كان الذكاء الاصطناعي خطيرًا ، وتعهد بعض كبار المعينين بالتدخل إذا تم استخدام التكنولوجيا بطريقة ضارة.

وسيلتقي سام التمان ، الرئيس التنفيذي لشركة OpenAI ، مع نائب الرئيس كامالا هاريس يوم الخميس. ائتمان…جيم ويلسون / نيويورك تايمز

ورفضت الناطقة باسم جوجل ومايكروسوفت التعليق قبل اجتماع البيت الأبيض. وأكد متحدث باسم Anthropic أن الشركة ستحضر. ولم ترد متحدثة باسم أوبن إيه آي على طلب للتعليق.

تستند الإعلانات إلى الجهود السابقة التي بذلتها الإدارة لوضع حواجز حماية على الذكاء الاصطناعي العام الماضي ، أصدر البيت الأبيض ما أسماه “مخطط قانون حقوق الذكاء الاصطناعي” ، والذي قال إن الأنظمة الآلية يجب أن تحمي خصوصية بيانات المستخدمين ، وتحميهم من نتائج تمييزية وتوضيح سبب اتخاذ إجراءات معينة. في يناير ، أصدرت وزارة التجارة أيضًا إطارًا لتقليل المخاطر في تطوير الذكاء الاصطناعي ، والذي كان قيد الإعداد لسنوات.

أدى إدخال روبوتات المحادثة مثل ChatGPT و Google Bard إلى فرض ضغوط هائلة على الحكومات للتحرك. واجه الاتحاد الأوروبي ، الذي كان يتفاوض بالفعل بشأن لوائح منظمة العفو الدولية ، مطالب جديدة لتنظيم قطاع أوسع من الذكاء الاصطناعي ، بدلاً من الأنظمة التي يُنظر إليها على أنها عالية المخاطر بطبيعتها.

في الولايات المتحدة ، تحرك أعضاء الكونجرس ، بمن فيهم السناتور تشاك شومر من نيويورك ، زعيم الأغلبية ، لصياغة أو اقتراح تشريع لتنظيم الذكاء الاصطناعي ، لكن الخطوات الملموسة لكبح التكنولوجيا في البلاد قد تأتي أولاً من وكالات إنفاذ القانون في واشنطن.

تعهدت مجموعة من الهيئات الحكومية في أبريل / نيسان بـ “مراقبة تطوير واستخدام الأنظمة المؤتمتة وتعزيز الابتكار المسؤول” ، مع معاقبة انتهاكات القانون المرتكبة باستخدام التكنولوجيا.

في مقال ضيف في صحيفة نيويورك تايمز يوم الأربعاء ، قالت لينا خان ، رئيسة لجنة التجارة الفيدرالية ، إن الأمة كانت في “نقطة اتخاذ القرار الرئيسية” مع الذكاء الاصطناعي. لقد شبهت التطورات الأخيرة في التكنولوجيا بميلاد عمالقة التكنولوجيا مثل Google و Facebook ، وحذرت من أنه بدون تنظيم مناسب ، يمكن للتكنولوجيا أن تعزز قوة أكبر شركات التكنولوجيا وتمنح المحتالين أداة فعالة.

وقالت: “مع انتشار استخدام الذكاء الاصطناعي على نطاق واسع ، يتحمل المسؤولون العموميون مسؤولية ضمان عدم تكرار هذا التاريخ المكتسب بشق الأنفس”.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading