ما تحتاج إلى معرفته
- التزمت Google ، جنبًا إلى جنب مع ست شركات أخرى ، طوعًا بتعزيز ممارسات أمان الذكاء الاصطناعي.
- سوف يمتد التزام الشركات ، ويكسب ثقة الجمهور ، وأمنًا أقوى ، وتقارير عامة عن أنظمتها.
- وهذا يعكس تعاونًا مشابهًا بين Google والاتحاد الأوروبي يسمى “ميثاق الذكاء الاصطناعي”.
أعلنت Google أنها ، إلى جانب ست شركات رائدة أخرى في مجال الذكاء الاصطناعي ، تتكاتف معًا لتعزيز “الممارسات المسؤولة في تطوير الذكاء الاصطناعي”. التزمت كل من Google و Amazon و Anthropic و Inflection و Meta و Microsoft و OpenAI جميعًا طواعية بهذه الممارسات المتقدمة الجديدة وتجتمع مع إدارة بايدن هاريس في البيت الأبيض في 21 يوليو.
يمكن القول إن أحد أكبر الالتزامات هو بناء الثقة في الذكاء الاصطناعي أو ، كما ذكر البيت الأبيض في ورقة الحقائق الخاصة به ، “كسب ثقة الجمهور”. تستشهد Google بمبادئ الذكاء الاصطناعي التي أنشأتها في عام 2018 لمساعدة الأشخاص على فهم برنامج الذكاء الاصطناعي الخاص بها والشعور بالراحة فيه.
ومع ذلك ، كما تنص إدارة بايدن-هاريس ، يجب على الشركات الالتزام بتطوير طرق لإعلام المستخدمين عندما يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي. تتضمن بعض الطرق العلامات المائية والبيانات الوصفية والأدوات الأخرى للسماح للمستخدمين بمعرفة مكان نشوء شيء ما ، مثل الصورة.
تم تكليف هذه الشركات أيضًا بالبحث عن المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على المجتمع ، مثل “التحيز الضار والتمييز وحماية الخصوصية”.
بعد ذلك ، يجب على الشركات الإبلاغ باستمرار عن أنظمة الذكاء الاصطناعي الخاصة بها بشكل علني حتى يتمكن الجميع ، بما في ذلك الحكومة وغيرها في الصناعة ، من فهم موقعهم على مستوى عوامل الخطر الأمنية والمجتمعية. يتم تضمين تطوير الذكاء الاصطناعي للمساعدة في حل مشكلات الرعاية الصحية والتغيرات البيئية في قائمة الالتزامات.
يعد الأمن موضوعًا ساخنًا آخر ، وكما تنص صحيفة الوقائع الصادرة عن البيت الأبيض ، فإن جميع الشركات السبع ستستثمر في تدابير الأمن السيبراني و “بروتوكولات التهديد من الداخل” لحماية أوزان النماذج المملوكة وغير المنشورة. يعتبر هذا الأخير هو الأهم عند تطوير بروتوكولات الأمان المناسبة لأنظمة الذكاء الاصطناعي.
يتعين على الشركات أيضًا تسهيل اكتشاف الجهات الخارجية والإبلاغ عن أي ثغرات داخل أنظمتها.
يجب القيام بكل هذا قبل أن تتمكن الشركات من طرح أنظمة ذكاء اصطناعي جديدة للجمهور ، كما يقول البيت الأبيض. تحتاج الشركات السبع إلى إجراء اختبارات أمنية داخلية وخارجية لأنظمة الذكاء الاصطناعي الخاصة بها قبل إصدارها. بالإضافة إلى ذلك ، يجب مشاركة المعلومات عبر الصناعة والحكومة والمجتمع المدني والأوساط الأكاديمية حول أفضل الممارسات للسلامة والتهديدات الأخرى لأنظمتهم.
الأمان والراحة مع الذكاء الاصطناعي مطلوبان لأن شركات مثل Google حذرت موظفيها لتوخي الحذر عند استخدام روبوتات الدردشة بالذكاء الاصطناعي بسبب المخاوف الأمنية. هذه ليست الحالة الأولى لمثل هذا الخوف ، حيث شعرت شركة Samsung بالخوف تمامًا عندما قدم مهندس عن طريق الخطأ رمز شركة سري إلى روبوت محادثة AI.
أخيرًا ، تلتزم Google طوعًا بتعزيز ممارسات الذكاء الاصطناعي الآمنة إلى جانب العديد من الممارسات الأخرى بعد شهرين من انضمامها إلى الاتحاد الأوروبي من أجل اتفاقية مماثلة. تعاونت الشركة لإنشاء “ميثاق الذكاء الاصطناعي” ، وهو مجموعة جديدة من المبادئ التوجيهية تم حث الشركات في المنطقة على الموافقة طواعية على التعامل مع برمجيات الذكاء الاصطناعي قبل أن يذهب بعيدًا.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.