لقد أذكى ChatGPT آمال جديدة حول إمكانات الذكاء الاصطناعي – ولكن أيضًا مخاوف جديدة. انضم البيت الأبيض اليوم إلى مجموعة القلق ، وأعلن أنه سيدعم تمرينًا جماعيًا للقرصنة في مؤتمر Defcon الأمني هذا الصيف لفحص أنظمة الذكاء الاصطناعي التوليدية من الشركات بما في ذلك Google.
قال مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا أيضًا أنه سيتم تحويل 140 مليون دولار نحو إطلاق سبعة معاهد بحثية وطنية جديدة للذكاء الاصطناعي تركز على تطوير الذكاء الاصطناعي الأخلاقي والتحويلي للصالح العام ، وبذلك يصل العدد الإجمالي إلى 25 على الصعيد الوطني.
جاء هذا الإعلان قبل ساعات من اجتماع حول الفرص والمخاطر التي قدمها الذكاء الاصطناعي بين نائب الرئيس الأمريكي كامالا هاريس والمديرين التنفيذيين من Google و Microsoft ، بالإضافة إلى الشركات الناشئة Anthropic و OpenAI ، اللتين أنشأتا ChatGPT.
يأتي تدخل البيت الأبيض للذكاء الاصطناعي مع تزايد الرغبة في تنظيم التكنولوجيا في جميع أنحاء العالم ، مدفوعة بالضجيج والاستثمار الذي أحدثته ChatGPT. في برلمان الاتحاد الأوروبي ، يتفاوض المشرعون على التحديثات النهائية لقانون الذكاء الاصطناعي الشامل الذي سيقيد وحتى يحظر بعض استخدامات الذكاء الاصطناعي ، بما في ذلك إضافة تغطية للذكاء الاصطناعي التوليدي. يفكر المشرعون البرازيليون أيضًا في تنظيم موجه نحو حماية حقوق الإنسان في عصر الذكاء الاصطناعي. أعلنت الحكومة الصينية الشهر الماضي عن مسودة اللائحة التوليدية للذكاء الاصطناعي.
في واشنطن العاصمة ، الأسبوع الماضي ، قدم السناتور الديمقراطي مايكل بينيت مشروع قانون من شأنه أن ينشئ فريق عمل للذكاء الاصطناعي يركز على حماية خصوصية المواطنين والحقوق المدنية. في الأسبوع الماضي أيضًا ، تعهدت أربع وكالات تنظيمية أمريكية ، بما في ذلك لجنة التجارة الفيدرالية ووزارة العدل ، باستخدام القوانين الحالية لحماية حقوق المواطنين الأمريكيين في عصر الذكاء الاصطناعي. هذا الأسبوع ، أكد مكتب السناتور الديمقراطي رون وايدن خططًا للمحاولة مرة أخرى لتمرير قانون يسمى قانون المحاسبة الخوارزمية ، والذي يتطلب من الشركات تقييم الخوارزميات الخاصة بها والكشف عن وقت استخدام نظام آلي.
قال أراتي برابهاكار ، مدير مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا ، في مارس / آذار في حدث استضافته أكسيوس ، إن التدقيق الحكومي في الذكاء الاصطناعي ضروري إذا كانت التكنولوجيا مفيدة. قال برابهاكار: “إذا أردنا اغتنام هذه الفرص ، فعلينا أن نبدأ بالتصارع مع المخاطر”.
سيتم إجراء تمرين القرصنة المدعوم من البيت الأبيض والمصمم لكشف نقاط الضعف في أنظمة الذكاء الاصطناعي التوليدية هذا الصيف في مؤتمر Defcon الأمني. سيُطلب من الآلاف من المشاركين ، بما في ذلك المتسللين وخبراء السياسة ، استكشاف كيفية توافق النماذج التوليدية من الشركات بما في ذلك Google و Nvidia و Stability AI مع قانون حقوق الذكاء الاصطناعي لإدارة بايدن الذي تم الإعلان عنه في عام 2022 والمعهد الوطني للمعايير وإدارة مخاطر التكنولوجيا. صدر في وقت سابق من هذا العام.
سيتم منح النقاط بموجب تنسيق التقاط العلم لتشجيع المشاركين على اختبار مجموعة واسعة من الأخطاء أو السلوك غير المرغوب فيه من أنظمة الذكاء الاصطناعي. سيتم تنفيذ الحدث بالتشاور مع Microsoft ، ومنظمة SeedAI غير الربحية ، وقاعدة بيانات ثغرات الذكاء الاصطناعي ، و Humane Intelligence ، وهي منظمة غير ربحية أنشأها عالم البيانات والاجتماع رومان شودري. قادت سابقًا مجموعة في Twitter تعمل على الأخلاق والتعلم الآلي ، واستضافت مكافأة التحيز التي كشفت عن التحيز في الاقتصاص التلقائي للصور على الشبكة الاجتماعية.