Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
علوم تكنولوجية

هل يمكن لـ ChatGPT إطلاق هجوم سيبرانى؟ السر فى البرمجيات الضارة

نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “هل يمكن لـ ChatGPT إطلاق هجوم سيبرانى؟ السر فى البرمجيات الضارة”

حذر تقرير من إمكانية خداع ChatGPT لتنفيذ هجمات إلكترونية، حيث تتيح الثغرة الأمنية للمستخدمين أن يطلبوا من برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي كتابة تعليمات برمجية ضارة يمكنها اختراق قواعد البيانات وسرقة المعلومات الحساسة.


 


ووفقا لما ذكره موقع صحيفة “ديلى ميل” البريطانية، قال الباحثون إن خوفهم الأكبر هو أن الناس قد يفعلون ذلك عن طريق الخطأ دون أن يدركوا، مما قد يتسبب في تعطل أنظمة الكمبيوتر الرئيسية، على سبيل المثال، يمكن للممرضة أن تطلب من ChatGPT المساعدة في البحث في السجلات السريرية، ومن دون علمها يتم إعطاؤها رمزًا ضارًا للقيام بذلك مما قد يؤدي إلى تعطيل الشبكة دون سابق إنذار.


 


وقال فريق بحثى من جامعة شيفيلد، إن روبوتات الدردشة كانت معقدة للغاية لدرجة أن الكثيرين، بما في ذلك الشركات المنتجة لها، “لم يكونوا على علم” بالتهديدات التي تشكلها.


 


تم نشر الدراسة قبل ما يزيد قليلاً عن أسبوع من انعقاد قمة سلامة الذكاء الاصطناعي الحكومية حول كيفية نشر التكنولوجيا بأمان، ومن المقرر أن يجتمع قادة العالم ورؤساء التكنولوجيا والأكاديميون وجهاً لوجه للمرة الأولى للاتفاق على إطار عمل لحماية العالم من الضرر “الكارثي” المحتمل للذكاء الاصطناعي.


 


قالت شركة OpenAI، الشركة الأمريكية الناشئة التي تقف وراء ChatGPT، إنها قامت منذ ذلك الحين بإصلاح الثغرة المحددة بعد الإبلاغ عن المشكلة.


 


ومع ذلك، قال الفريق في قسم علوم الكمبيوتر في شيفيلد إنه من المحتمل أن يكون هناك المزيد، ودعوا صناعة الأمن السيبراني إلى النظر في القضية بمزيد من التفصيل.


 


تعد هذه الورقة الأولى من نوعها التي توضح أن ما يسمى بـ “أنظمة تحويل النص إلى SQL”، وهو الذكاء الاصطناعي الذي يمكنه البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة واضحة، يمكن استغلاله لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي.


 


قام الباحثون بتحليل خمس أدوات تجارية للذكاء الاصطناعي في المجمل، ووجدوا أن جميعها كانت قادرة على إنتاج رموز ضارة يمكنها، بمجرد تنفيذها، تسريب معلومات سرية ومقاطعة الخدمات أو حتى تدميرها بالكامل.


 


وتشير النتائج إلى أنه ليس فقط المتسللين الخبراء هم من يمكنهم الآن تنفيذ مثل هذه الهجمات، بل الأشخاص العاديون أيضًا.


 


ويخشى الباحثون أن يؤدي ذلك إلى عدم إدراك المستخدمين الأبرياء أنهم فعلوا ذلك وإصابة أنظمة الكمبيوتر عن طريق الخطأ.


 


وقال شوتان بينج، طالب دكتوراه في جامعة شيفيلد والذي شارك في قيادة البحث: “في الواقع، العديد من الشركات ببساطة ليست على علم بهذه الأنواع من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع، هناك الأشياء التي ليست مفهومة تماما.. في الوقت الحالي، يحظى ChatGPT بالكثير من الاهتمام”.


 


وأضاف “أنه نظام مستقل، وبالتالي فإن المخاطر التي تتعرض لها الخدمة نفسها ضئيلة، ولكن ما وجدناه هو أنه يمكن خداعه لإنتاج تعليمات برمجية ضارة يمكن أن تلحق ضررًا جسيمًا بالخدمات الأخرى.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى