اخبار

مستشارو البيت الأبيض السابقون والباحثون التقنيون يشاركون في توقيع بيان جديد ضد أضرار الذكاء الاصطناعي


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


وقع اثنان من مستشاري البيت الأبيض السابقين لسياسات الذكاء الاصطناعي ، إلى جانب أكثر من 150 أكاديميًا وباحثًا وممارسًا في مجال الذكاء الاصطناعي ، “بيانًا جديدًا حول أضرار وسياسات الذكاء الاصطناعي” نشرته ACM FaaCT (مؤتمر العدالة والمساءلة والشفافية) الذي يعقد حاليًا مؤتمرها السنوي في شيكاغو.

وقع البيان ألوندرا نيلسون ، نائب مساعد الرئيس السابق جو بايدن والمدير بالإنابة في مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا ، وسوريش فينكاتاسوبرامانيان ، مستشار البيت الأبيض السابق لـ “مخطط قانون حقوق الذكاء الاصطناعي”. يأتي ذلك بعد أسابيع قليلة فقط من بيان مشترك على نطاق واسع حول مخاطر الذكاء الاصطناعي وقعه كبار باحثي الذكاء الاصطناعي والرؤساء التنفيذيين ، والذي أشار إلى القلق بشأن “الانقراض” البشري من الذكاء الاصطناعي ، وبعد ثلاثة أشهر من خطاب مفتوح يدعو إلى “توقف” الذكاء الاصطناعي لمدة ستة أشهر على نطاق واسع. -توسيع نطاق تطوير الذكاء الاصطناعي بما يتجاوز GPT-4 الخاص بـ OpenAI.

على عكس الالتماسات السابقة ، يركز بيان ACM FaaCT على الآثار الضارة الحالية لأنظمة الذكاء الاصطناعي ويدعو إلى سياسة تستند إلى الأبحاث والأدوات الحالية. تقول: “نحن ، العلماء والممارسون الموقعون أدناه في مؤتمر العدالة والمساءلة والشفافية ، نرحب بالدعوات المتزايدة لتطوير ونشر الذكاء الاصطناعي بطريقة تحمي المصالح العامة والحقوق الأساسية. من مخاطر الخوارزميات غير الدقيقة أو المنحازة التي تحرم الرعاية الصحية المنقذة للحياة إلى النماذج اللغوية التي تؤدي إلى تفاقم التلاعب والمعلومات الخاطئة ، توقع بحثنا منذ فترة طويلة الآثار الضارة لأنظمة الذكاء الاصطناعي على جميع مستويات التعقيد والقدرة. تُظهر مجموعة العمل هذه أيضًا كيفية تصميم أنظمة الذكاء الاصطناعي أو تدقيقها أو مقاومتها لحماية الديمقراطية والعدالة الاجتماعية وحقوق الإنسان. تستدعي هذه اللحظة سياسة سليمة تستند إلى سنوات البحث التي ركزت على هذا الموضوع. لدينا بالفعل أدوات للمساعدة في بناء مستقبل تكنولوجي أكثر أمانًا ، وندعو صانعي السياسات لنشرها بشكل كامل.

بعد مشاركة البيان على تويتر، استشهد نيلسون برأي مجموعة سياسات وحوكمة الذكاء الاصطناعي ومجموعة العمل في معهد الدراسات المتقدمة ، حيث تعمل حاليًا كأستاذة ، بعد تنحيها من إدارة بايدن في فبراير.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

“توافق سياسة الذكاء الاصطناعي والحوكمة ومجموعة العمل ، التي تمثل مختلف القطاعات والتخصصات ووجهات النظر والأساليب ، على أنه من الضروري والممكن معالجة العديد من المخاوف التي أثارها التوسع في استخدام أنظمة وأدوات الذكاء الاصطناعي وقوتها المتزايدة ،” كتبت على تويتر. “نتفق أيضًا على أن الأضرار والمخاطر الحالية التي لم تتم معالجتها والمخاطر والمخاطر غير المؤكدة التي تلوح في الأفق تتطلب اهتمامًا عاجلاً وتوقع الجمهور للسلامة.”

ومن بين الباحثين الآخرين في منظمة العفو الدولية الذين وقعوا البيان ، Timnit Gebru ، مؤسس The Distributed AI Research Institute (DAIR) ، فضلاً عن باحثين من Google DeepMind ، و Microsoft ، وجامعة ستانفورد ، وجامعة كاليفورنيا في بيركلي.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى