علوم تكنولوجية

جعلوه مجرمًا.. الهاكرز يستخدمون ChatGPT لتسهيل أعمال القرصنة

نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “جعلوه مجرمًا.. الهاكرز يستخدمون ChatGPT لتسهيل أعمال القرصنة”


سواء كان الأمر يتعلق بكتابة المقالات أو تحليل البيانات، يمكن استخدام ChatGPT لتخفيف عبء العمل على الشخص، لكن هذا ينطبق على مجرمي الإنترنت أيضًا.


وبحسب موقع businessinsider الأمريكي،  فقد رأي سيرجي شيكيفيتش – الباحث الرئيسي في ChatGPT بشركة الأمن السيبراني Checkpoint security- بالفعل مجرمي الإنترنت يستغلون قوة الذكاء الاصطناعي لإنشاء كود يمكن استخدامه في هجوم فدية.


 


وبدأ فريق شيكيفيتش دراسة احتمالية أن يفسح الذكاء الاصطناعي نفسه للجرائم الإلكترونية في ديسمبر 2021، وباستخدام نموذج اللغة الكبير للذكاء الاصطناعي، قاموا بإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي ورموز ضارة.


 


وعندما أصبح من الواضح أنه يمكن استخدام ChatGPT لأغراض غير قانونية، أخبر “شيكيفيتش” Insider أن الفريق أراد معرفة ما إذا كانت النتائج التي توصلوا إليها “نظرية” أو ما إذا كان بإمكانهم العثور على “الأشرار الذين يستخدمونها في الواقع”.


 


ونظرًا لأنه من الصعب معرفة ما إذا كانت رسالة بريد إلكتروني ضارة تم تسليمها إلى صندوق الوارد لشخص ما قد تمت كتابتها باستخدام ChatGPT ، فقد لجأ فريقه إلى الويب المظلم لمعرفة كيفية استخدام التطبيق.


 


في 21 ديسمبر، عثروا على أول دليل لهم: كان مجرمو الإنترنت يستخدمون روبوت المحادثة لإنشاء نص برمجي بيثون يمكن استخدامه في هجوم بالبرامج الضارة، وقال شيكفيتش إن الشفرة بها بعض الأخطاء ، لكن الكثير منها كان صحيحًا.


 


وقال “المثير للاهتمام هو أن هؤلاء الأشخاص الذين نشروها لم يطوروا أي شيء من قبل”، وقال Shykevich أن ChatGPT و Codex ، وهي خدمة OpenAI يمكنها كتابة التعليمات البرمجية للمطورين ، “ستسمح للأشخاص الأقل خبرة بأن يصبحوا مطورين مزعومين.”


 


ولعل إساءة استخدام ChatGPT – التي تعمل الآن على تشغيل روبوت الدردشة الجديد المزعج بالفعل في Bing – يثير قلق خبراء الأمن السيبراني، الذين يرون إمكانية أن تساعد روبوتات المحادثة في هجمات التصيد والبرامج الضارة والقرصنة.


 


وقال جاستن فيير، مدير Cyber Intelligence & Analytics في Darktrace ، وهي شركة للأمن السيبراني ، لـ Insider أنه عندما يتعلق الأمر بهجمات التصيد الاحتيالي ، فإن حاجز الدخول منخفض بالفعل ، لكن ChatGPT يمكن أن يجعل الأمر غير معقد للأشخاص لإنشاء عشرات الرسائل الإلكترونية الاحتيالية المستهدفة بكفاءة – طالما أنهم يصوغون مطالبات جيدة.




فيلم خيال علمي


في أوائل فبراير، أصدرت شركة الأمن السيبراني Blackberry استطلاعًا شمل 1500 خبير في تكنولوجيا المعلومات ، قال 74٪ منهم إنهم قلقون بشأن مساعدة ChatGPT في الجرائم الإلكترونية، وقدوجد الاستطلاع أيضًا أن 71٪ يعتقدون أن ChatGPT قد تكون قيد الاستخدام بالفعل من قبل الدول القومية لمهاجمة دول أخرى من خلال محاولات القرصنة والتصيد الاحتيالي.


 


يمكن أن تكون استخدامات الجرائم الإلكترونية مسؤولية على Open AI


مع بدء مجرمي الإنترنت في إضافة أشياء مثل ChatGPT إلى مجموعة أدواتهم، يتساءل خبراء مثل المدعي الفيدرالي السابق إدوارد مكاندرو عما إذا كانت الشركات ستتحمل بعض المسؤولية عن هذه الجرائم.


 


على سبيل المثال، أشار McAndrew ، الذي عمل مع وزارة العدل للتحقيق في الجرائم الإلكترونية، إلى أنه إذا نصح ChatGPT ، أو روبوت محادثة مثله، شخصًا ما بارتكاب جريمة إلكترونية ، فقد تكون مسؤولية الشركات التي تسهل برامج الدردشة هذه.


 


عند التعامل مع محتوى غير قانوني أو إجرامي على مواقعهم من مستخدمي جهات خارجية، تستشهد معظم شركات التكنولوجيا بالقسم 230 من قانون آداب الاتصالات لعام 1996. ينص القانون على أن مزودي المواقع التي تسمح للأشخاص بنشر محتوى – مثل Facebook أو Twitter – ليست مسؤولة عن الكلام على منصاتها.


 


ومع ذلك، نظرًا لأن الخطاب قادم من chatbot نفسه، قال McAndrew إن القانون قد لا يحمي OpenAI من الدعاوى المدنية أو المقاضاة – على الرغم من أن الإصدارات مفتوحة المصدر قد تجعل من الصعب ربط الجرائم الإلكترونية بـ OpenAI.


 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى