نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “مايكروسوفت تمنع العديد من المطالبات في أداة Copilot.. اعرف الأسباب”
ويبدو أيضا أن التغييرات قد تم تنفيذها مباشرة بعد أن كتب أحد المهندسين في الشركة إلى لجنة التجارة الفيدرالية لتوضيح مخاوفه الشديدة بشأن تقنية GAI من Microsoft.
وعند ادخال مصطلحات مثل “اختيار احترافي” أو “أربعة وعشرين” (إشارة إلى الأعشاب الضارة) أو “حياة احترافية”، يعرض Copilot الآن رسالة تفيد بأن هذه المطالبات محظورة، ويحذر من أن انتهاكات السياسة المتكررة قد تؤدي إلى تعليق المستخدم، وفقًا لـ CNBC.
وبحسب ما ورد تمكن المستخدمون أيضًا من إدخال المطالبات المتعلقة بالأطفال الذين يلعبون ببنادق هجومية حتى وقت سابق من هذا الأسبوع، و قد يتم إخبار أولئك الذين يحاولون إدخال مثل هذه المطالبة الآن أن القيام بذلك ينتهك المبادئ الأخلاقية لـ Copilot بالإضافة إلى سياسات Microsoft.
وقال Copilot ردًا على ذلك: “من فضلك لا تطلب مني القيام بأي شيء قد يضر أو يسيء إلى الآخرين”.
ومع ذلك، وجدت CNBC أنه لا يزال من الممكن إنشاء صور عنيفة من خلال مطالبات مثل “حادث سيارة”، بينما لا يزال بإمكان المستخدمين إقناع الذكاء الاصطناعي بإنشاء صور لشخصيات ديزني وغيرها من الأعمال المحمية بحقوق الطبع والنشر.
وظل مهندس مايكروسوفت شين جونز يدق ناقوس الخطر منذ أشهر بشأن أنواع الصور التي كانت تولدها أنظمة Microsoft التي تعمل بنظام OpenAI ، وكان يختبر Copilot Designer منذ ديسمبر وقرر أنه ينتج صورًا تنتهك مبادئ الذكاء الاصطناعي المسؤولة لدى Microsoft حتى أثناء استخدام المطالبات الحميدة نسبيًا.
وعلى سبيل المثال وجد أن “الاختيار المؤيد” الفوري أدى إلى قيام الذكاء الاصطناعي بإنشاء صور لأشياء مثل أكل الشياطين للرضع ودارث فيدر وهو يمسك بمثقاب لرأس طفل، وكتب إلى لجنة التجارة الفيدرالية ومجلس إدارة مايكروسوفت حول مخاوفه بشأن هذا الأمر.
وقالت مايكروسوفت لـ CNBC فيما يتعلق بالحظر الفوري لـ Copilot: “نحن نراقب باستمرار ونجري التعديلات ونضع ضوابط إضافية لتعزيز مرشحات الأمان لدينا والتخفيف من سوء استخدام النظام.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.