قدمت منظمة أخلاقية بارزة لمنظمة العفو الدولية شكوى إلى لجنة التجارة الفيدرالية هذا الأسبوع حثت فيها الوكالة على التحقيق صانع الدردشة OpenAI ووقف تطويرها لنماذج تعلم اللغة الكبيرة في المستقبل. وزعمت الشكوى المقدمة من مركز الذكاء الاصطناعي والسياسة الرقمية (CAIDP) تم إصدار وضع GPT4 الخاص بـ OpenAI مؤخرًا“منحازة ومضللة وتشكل خطرًا على الخصوصية والسلامة العامة.”
أصدر CAIDP الشكوى بعد يوم واحد فقط من مجموعة واسعة من أكثر من وقع 500 خبير في الذكاء الاصطناعي على خطاب مفتوح مطالبة مختبرات الذكاء الاصطناعي بإيقاف تطوير LLMs الأقوى من GPT4 فورًا بسبب مخاوف من أنها قد تشكل “مخاطر عميقة على المجتمع والإنسانية”. مارك روتنبرغ ، رئيس CAIDP ، كان من بين الموقعين على الرسالة. ومع ذلك ، فإن شكوى CAIDP في الغالب تبتعد عن التنبؤات الزائدية بأن الذكاء الاصطناعي يمثل تهديدًا وجوديًا للبشرية. بدلاً من ذلك ، تشير الشكوى إلى توجيهات لجنة التجارة الفيدرالية المعلنة بشأن أنظمة الذكاء الاصطناعي والتي تنص على أنها يجب أن تكون “شفافة وقابلة للتفسير وعادلة وسليمة من الناحية التجريبية مع تعزيز المساءلة”. وتدفع الشكوى بأن GTP4 فشل في تلبية هذه المعايير.
تدعي الشكوى أن GPT4 ، الذي تم إصداره في وقت سابق من هذا الشهر ، تم إطلاقه دون أي تقييم مستقل ودون أي وسيلة للأجانب لتكرار نتائج OpenAI. حذر برنامج CAIDP من إمكانية استخدام النظام لنشر معلومات مضللة ، والمساهمة في تهديدات الأمن السيبراني ، وربما تفاقم أو “حبس” التحيزات المعروفة بالفعل لنماذج الذكاء الاصطناعي.
وكتبت المجموعة: “حان الوقت لكي تتصرف لجنة التجارة الفيدرالية”. “يجب أن يكون هناك إشراف وتقييم مستقلان لمنتجات الذكاء الاصطناعي التجارية المعروضة في الولايات المتحدة.”
قد تحصل G / O Media على عمولة
لم تستجب شركة OpenAI ولا FTC لطلب Gizmodo للتعليق.
تضع FTC أنظارها على الذكاء الاصطناعي
يُحسب أن لجنة التجارة الفيدرالية (FTC) كانت تفكر بصوت عالٍ في المخاطر المحتملة التي يمكن أن تشكلها أنظمة الذكاء الاصطناعي الجديدة على المستهلكين. في مسلسل ل مشاركات المدونة تم إصدارها في الأشهر الأخيرة ، واستكشفت الوكالة الطرق التي يمكن أن تجعلها روبوتات الدردشة أو غيرها من “الوسائط الاصطناعية” من الصعب تحليل ما هو حقيقي عبر الإنترنت ، وهو نعمة محتملة للمحتالين وغيرهم ممن يتطلعون إلى خداع الناس بشكل جماعي.
وكتبت لجنة التجارة الفيدرالية: “توجد أدلة بالفعل على أن المحتالين يمكنهم استخدام هذه الأدوات لإنشاء محتوى واقعي ولكن مزيف بسرعة وبتكلفة زهيدة ، أو نشره على مجموعات كبيرة أو استهداف مجتمعات معينة أو أفراد معينين”.
ومع ذلك ، فإن هذه المخاوف لا ترقى إلى مستوى الأزمة المحتملة على مستوى المجتمع التي وصفتها الرسالة الصادرة هذا الأسبوع من قبل معهد Future of Life. خبراء الذكاء الاصطناعي ، سواء أولئك الذين وقع الخطاب وآخرون ممن لم يفعلوا ذلك ، عبروا عن انقسامات عميقة في مستوى القلق بشأن نماذج ماجستير في المستقبل. على الرغم من أن جميع باحثي الذكاء الاصطناعي المهتمين تقريبًا يتفقون على أن صانعي السياسات بحاجة إلى اللحاق بالركب وصياغة القواعد واللوائح الذكية لتوجيه تطوير الذكاء الاصطناعي ، إلا أن العقول تنقسم عندما يتعلق الأمر بنسب الذكاء على المستوى البشري إلى ما هو أساسًا تخمين جيد للغاية تم تدريبه على تريليونات من المعايير المحتملة.
“ما يجب أن نقلق بشأنه هو أن هذا النوع من الضجيج يمكن أن يبالغ في المبالغة في قدرات أنظمة الذكاء الاصطناعي ويصرف الانتباه عن الاهتمامات الملحة مثل الاعتماد العميق لهذه الموجة من الذكاء الاصطناعي على حفنة صغيرة من الشركات ،” مدير إدارة معهد AI Now قالت سارة مايرز ويست سابقًا لـ Gizmodo.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.