يجادل خبراء الأمن السيبراني بأن إيقاف تطوير GPT-4 لا طائل من ورائه

يجادل خبراء الأمن السيبراني بأن إيقاف تطوير GPT-4 لا طائل من ورائه


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


في وقت سابق من هذا الأسبوع ، أصدرت مجموعة تضم أكثر من 1800 قائد وتقني في مجال الذكاء الاصطناعي (AI) تتراوح من Elon Musk إلى Steve Wozniak رسالة مفتوحة تدعو جميع مختبرات الذكاء الاصطناعي إلى إيقاف التطوير فورًا لمدة ستة أشهر على أنظمة AI أقوى من GPT-4 بسبب “المخاطر العميقة على المجتمع والإنسانية”.

بينما يمكن أن يساعد التوقف المؤقت في المساعدة على فهم وتنظيم المخاطر المجتمعية الناتجة عن الذكاء الاصطناعي التوليدي بشكل أفضل ، يجادل البعض بأنه أيضًا محاولة للمنافسين المتأخرين لمواكبة أبحاث الذكاء الاصطناعي مع قادة في الفضاء مثل أوبن إيه آي.

وفقًا لمحلل VP المتميز في Gartner ، أفيفاه ليتان ، الذي تحدث مع VentureBeat حول هذه القضية ، “إن التوقف لمدة ستة أشهر هو نداء لوقف تدريب عارضات أقوى من GPT-4. سيتبع GPT 4.5 قريبًا GPT-5 ، والذي من المتوقع أن يحقق AGI (الذكاء العام الاصطناعي). بمجرد وصول AGI ، من المحتمل أن يكون قد فات الأوان لوضع ضوابط السلامة التي تحمي بشكل فعال الاستخدام البشري لهذه الأنظمة “.

>> تابع تغطية الذكاء الاصطناعي التوليدية المستمرة من VentureBeat <<

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

على الرغم من المخاوف بشأن المخاطر المجتمعية التي يشكلها الذكاء الاصطناعي التوليدي ، فإن العديد من خبراء الأمن السيبراني يشككون في أن التوقف المؤقت في تطوير الذكاء الاصطناعي قد يساعد على الإطلاق. بدلاً من ذلك ، يجادلون بأن مثل هذا التوقف المؤقت من شأنه أن يوفر فقط مهلة مؤقتة لفرق الأمن لتطوير دفاعاتهم والاستعداد للاستجابة للزيادة في الهندسة الاجتماعية ، والتصيد الاحتيالي وتوليد الشفرات الضارة.

لماذا لا يكون التوقف عن التطوير التوليدي للذكاء الاصطناعي أمرًا ممكنًا

إحدى الحجج الأكثر إقناعًا ضد التوقف المؤقت لأبحاث الذكاء الاصطناعي من منظور الأمن السيبراني هي أنها تؤثر فقط على البائعين ، وليس الجهات الفاعلة في مجال التهديد الضار. سيظل مجرمو الإنترنت قادرين على تطوير ناقلات هجوم جديدة وصقل تقنياتهم الهجومية.

قال ستيف جروبمان ، كبير مسؤولي التكنولوجيا في McAfee ، لموقع VentureBeat: “لن يمنع إيقاف تطوير الجيل القادم من الذكاء الاصطناعي الممثلين عديمي الضمير من الاستمرار في استخدام التكنولوجيا في اتجاهات خطيرة”. “عندما يكون لديك اختراقات تكنولوجية ، فإن وجود مؤسسات وشركات ذات أخلاقيات ومعايير تستمر في تطوير التكنولوجيا أمر حتمي لضمان استخدام التكنولوجيا بأكثر الطرق مسؤولية ممكنة.”

في الوقت نفسه ، يمكن اعتبار تنفيذ حظر على تدريب أنظمة الذكاء الاصطناعي تجاوزًا تنظيميًا.

“الذكاء الاصطناعي هو الرياضيات التطبيقية ، ولا يمكننا تشريع أو تنظيم أو منع الناس من القيام بالرياضيات. وبدلاً من ذلك ، نحن بحاجة إلى فهمها ، وتثقيف قادتنا لاستخدامها بمسؤولية في الأماكن المناسبة ، وإدراك أن خصومنا سوف يسعون إلى استغلالها ، “قال جروبمان.

إذن ما العمل؟

إذا لم يكن التوقف الكامل عن التطوير التوليفي للذكاء الاصطناعي أمرًا عمليًا ، فبدلاً من ذلك ، يجب على المنظمين والمنظمات الخاصة النظر في تطوير إجماع حول معايير تطوير الذكاء الاصطناعي ، ومستوى الحماية المضمنة التي تحتاجها أدوات مثل GPT-4 والتدابير التي يمكن للشركات استخدامها للتخفيف من المخاطر المصاحبة.

“يُعد تنظيم الذكاء الاصطناعي محادثة مهمة ومستمرة ، ولا يزال التشريع المتعلق بالاستخدام الأخلاقي والآمن لهذه التقنيات يمثل تحديًا ملحًا للمشرعين ذوي المعرفة الخاصة بالقطاع ، نظرًا لأن نطاق حالات الاستخدام لا حدود له جزئيًا من الرعاية الصحية إلى الفضاء” ، جوستين فيير ، نائب الرئيس الأول لشركة Red Team Operations ، Darktrace ، لـ VentureBeat.

“إن الوصول إلى إجماع وطني أو دولي حول من يجب أن يتحمل المسؤولية عن سوء تطبيق جميع أنواع الذكاء الاصطناعي والأتمتة ، وليس فقط الذكاء الاصطناعي العام ، هو تحدٍ مهم لن يحل وقفة قصيرة على تطوير نموذج الذكاء الاصطناعي العام على وجه التحديد ،” فيير قال.

بدلاً من التوقف المؤقت ، سيتم تقديم خدمة أفضل لمجتمع الأمن السيبراني من خلال التركيز على تسريع المناقشة حول كيفية إدارة المخاطر المرتبطة بالاستخدام الضار للذكاء الاصطناعي التوليدي ، وحث بائعي الذكاء الاصطناعي على أن يكونوا أكثر شفافية بشأن الحواجز الأمنية المطبقة لمنع التهديدات الجديدة.

كيف تستعيد الثقة في حلول الذكاء الاصطناعي

بالنسبة إلى Litan من Gartner ، يتطلب التطوير الحالي لنموذج اللغة الكبيرة (LLM) من المستخدمين وضع ثقتهم في قدرات الفريق الأحمر للمورد. ومع ذلك ، فإن المنظمات مثل OpenAI غير شفافة في كيفية إدارة المخاطر داخليًا ، ولا تقدم للمستخدمين سوى القليل من القدرة على مراقبة أداء وسائل الحماية المضمنة في ثناياه عوامل.

نتيجة لذلك ، تحتاج المؤسسات إلى أدوات وأطر عمل جديدة لإدارة المخاطر الإلكترونية التي يقدمها الذكاء الاصطناعي التوليدي.

“نحن بحاجة إلى فئة جديدة من الثقة بالذكاء الاصطناعي وإدارة المخاطر والأمن [TRiSM] الأدوات التي تدير البيانات وتدفق العمليات بين المستخدمين والشركات التي تستضيف نماذج مؤسسة LLM. ستكون هذه [cloud access security broker] قال Litan: “يشبه CASB في التكوينات التقنية الخاصة بهم ، ولكن على عكس وظائف CASB ، سيتم تدريبهم على التخفيف من المخاطر وزيادة الثقة في استخدام نماذج الذكاء الاصطناعي القائمة على السحابة”.

كجزء من بنية AI TRiSM ، يجب على المستخدمين أن يتوقعوا من البائعين الذين يستضيفون هذه النماذج أو يوفرونها لتزويدهم بالأدوات اللازمة لاكتشاف البيانات الشاذة والمحتوى ، إلى جانب قدرات إضافية لحماية البيانات وضمان الخصوصية ، مثل الإخفاء.

على عكس الأدوات الحالية مثل ModelOps ومقاومة الهجوم العدائي ، والتي لا يمكن تنفيذها إلا من قبل مالك النموذج والمشغل ، فإن AI TRiSM تمكن المستخدمين من لعب دور أكبر في تحديد مستوى المخاطر التي تقدمها أدوات مثل GPT-4.

التحضير هو المفتاح

في نهاية المطاف ، بدلاً من محاولة خنق التطوير التوليدي للذكاء الاصطناعي ، يجب على المؤسسات البحث عن طرق يمكنها من خلالها الاستعداد لمواجهة المخاطر التي يوفرها الذكاء الاصطناعي التوليدي.

تتمثل إحدى طرق القيام بذلك في إيجاد طرق جديدة لمحاربة الذكاء الاصطناعي باستخدام الذكاء الاصطناعي ، واتباع خطوات المنظمات مثل Microsoft و Orca Security و ARMO و Sophos ، التي طورت بالفعل حالات استخدام دفاعي جديدة للذكاء الاصطناعي التوليدي.

على سبيل المثال ، يستخدم Microsoft Security Copilot مزيجًا من GPT-4 وبياناته الخاصة لمعالجة التنبيهات التي تم إنشاؤها بواسطة أدوات الأمان ، وترجمتها إلى شرح بلغة طبيعية للحوادث الأمنية. يمنح هذا المستخدمين من البشر سردًا للإشارة إليه للرد على الانتهاكات بشكل أكثر فعالية.

هذا مجرد مثال واحد على كيفية استخدام GPT-4 بشكل دفاعي. مع وجود الذكاء الاصطناعي التوليدي المتاح بسهولة وخارجه ، فإنه على فرق الأمان لمعرفة كيف يمكنهم الاستفادة من هذه الأدوات كمضاعف خاطئ لتأمين مؤسساتهم.

قال جيف بولارد ، المحلل الرئيسي لشركة Forrester VP ، لـ VentureBeat: “هذه التكنولوجيا قادمة … وبسرعة”. “الطريقة الوحيدة التي سيكون الأمن السيبراني جاهزًا بها هي البدء في التعامل معها الآن. إن التظاهر بأنه لن يأتي – أو التظاهر بأن التوقف المؤقت سيساعد – سيكلف فرق الأمن السيبراني على المدى الطويل. تحتاج الفرق إلى البدء في البحث والتعلم الآن كيف ستحول هذه التقنيات كيفية قيامهم بعملهم “.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *