اخبار

دراسة جديدة: الجهات الفاعلة في مجال التهديد تسخر الذكاء الاصطناعي لتضخيم هجمات البريد الإلكتروني وتحسينها


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


كشفت دراسة أجرتها منصة أمان البريد الإلكتروني Abnormal Security عن الاستخدام المتزايد للذكاء الاصطناعي التوليدي ، بما في ذلك ChatGPT ، من قبل مجرمي الإنترنت لتطوير هجمات بريد إلكتروني موثوقة للغاية ومقنعة.

أجرت الشركة مؤخرًا تحليلاً شاملاً لتقييم احتمالية هجمات البريد الإلكتروني الجديدة القائمة على الذكاء الاصطناعي والتي تم اعتراضها بواسطة نظامها الأساسي. وجد هذا التحقيق أن الجهات الفاعلة في التهديد تستفيد الآن من أدوات GenAI لتصميم هجمات البريد الإلكتروني التي أصبحت تدريجيًا أكثر واقعية وإقناعًا.

أعرب قادة الأمن عن مخاوفهم المستمرة بشأن تأثير هجمات البريد الإلكتروني التي تم إنشاؤها بواسطة الذكاء الاصطناعي منذ ظهور ChatGPT. وجد تحليل Abnormal Security أن الذكاء الاصطناعي يتم استخدامه الآن لإنشاء طرق هجوم جديدة ، بما في ذلك التصيد الاحتيالي لبيانات الاعتماد ، ونسخة متقدمة من مخطط اختراق البريد الإلكتروني التقليدي للأعمال (BEC) والاحتيال على البائعين.

وفقًا للشركة ، اعتمد مستلمو البريد الإلكتروني تقليديًا على تحديد الأخطاء الإملائية والنحوية لاكتشاف هجمات التصيد الاحتيالي. ومع ذلك ، يمكن أن يساعد الذكاء الاصطناعي التوليدي في إنشاء رسائل بريد إلكتروني مكتوبة بشكل لا تشوبه شائبة تشبه إلى حد بعيد الاتصالات المشروعة. نتيجة لذلك ، يصبح من الصعب على الموظفين التمييز بين الرسائل الأصلية والاحتيالية.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

يكتب مجرمو الإنترنت محتوى فريدًا

قال دان شيبلر ، رئيس ML في Abnormal Security ، لـ VentureBeat ، إن الجهات الفاعلة في اختراق البريد الإلكتروني للأعمال (BEC) غالبًا ما تستخدم القوالب لكتابة وإطلاق هجمات البريد الإلكتروني الخاصة بهم.

وقال: “لهذا السبب ، تتميز العديد من هجمات BEC التقليدية بمحتوى مشترك أو متكرر يمكن اكتشافه بواسطة تقنية أمان البريد الإلكتروني استنادًا إلى سياسات محددة مسبقًا”. “ولكن باستخدام أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT ، يكتب مجرمو الإنترنت مجموعة متنوعة أكبر من المحتوى الفريد ، بناءً على اختلافات طفيفة في مطالبات الذكاء الاصطناعي التوليدية الخاصة بهم. وهذا يجعل الاكتشاف بناءً على مطابقات مؤشر الهجوم المعروف أكثر صعوبة مع السماح لهم أيضًا بتوسيع حجم هجماتهم “.

كشفت أبحاث Abnormal كذلك أن الجهات الفاعلة في التهديد تتجاوز هجمات BEC التقليدية وتستفيد من أدوات مشابهة لـ ChatGPT لانتحال شخصية البائعين. تستغل هجمات اختراق البريد الإلكتروني للموردين (VEC) الثقة الحالية بين البائعين والعملاء ، مما يثبت تقنيات الهندسة الاجتماعية عالية الفعالية.

عادةً ما تتضمن التفاعلات مع البائعين مناقشات تتعلق بالفواتير والمدفوعات ، مما يضيف طبقة إضافية من التعقيد في تحديد الهجمات التي تحاكي هذه التبادلات. يؤدي عدم وجود إشارات حمراء واضحة مثل الأخطاء المطبعية إلى زيادة صعوبة الكشف.

قال شيبلر: “بينما لا نزال نقوم بتحليل كامل لفهم مدى هجمات البريد الإلكتروني التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، فقد شهدت” Abnormal “زيادة مؤكدة في عدد الهجمات التي تحتوي على مؤشرات AI كنسبة مئوية من جميع الهجمات ، لا سيما خلال الأسابيع القليلة الماضية” قال لـ VentureBeat.

إنشاء هجمات تصيد غير قابلة للكشف من خلال الذكاء الاصطناعي التوليدي

وفقًا لشيبلر ، تشكل GenAI تهديدًا كبيرًا في هجمات البريد الإلكتروني لأنها تمكن الجهات الفاعلة في التهديد من صياغة محتوى متطور للغاية. وهذا يزيد من احتمالية خداع الأهداف بنجاح للنقر فوق الروابط الضارة أو الامتثال لتعليماتهم. على سبيل المثال ، يؤدي استخدام الذكاء الاصطناعي في تكوين هجمات بالبريد الإلكتروني إلى القضاء على الأخطاء المطبعية والنحوية المرتبطة عادةً بهجمات BEC التقليدية واستخدامها لتحديدها.

وأوضح شيبلر: “يمكن أيضًا استخدامه لخلق تخصيص أكبر”. “تخيل لو قام المهاجمون بإدخال مقتطفات من سجل البريد الإلكتروني لضحاياهم أو محتوى ملف تعريف LinkedIn ضمن استعلامات ChatGPT الخاصة بهم. ستبدأ رسائل البريد الإلكتروني في إظهار السياق النموذجي واللغة والنبرة التي يتوقعها الضحية ، مما يجعل رسائل البريد الإلكتروني BEC أكثر خداعًا “.

لاحظت الشركة أن مجرمي الإنترنت لجأوا إلى المجالات التي تم إنشاؤها حديثًا قبل عقد من الزمن. ومع ذلك ، سرعان ما اكتشفت أدوات الأمان هذه الأنشطة الضارة وعرقلت. ردا على ذلك ، قام ممثلو التهديد بتعديل تكتيكاتهم من خلال استخدام حسابات بريد الويب المجانية مثل Gmail و Outlook. غالبًا ما كانت هذه المجالات مرتبطة بعمليات تجارية مشروعة ، مما يسمح لها بالتهرب من الإجراءات الأمنية التقليدية.

يتبع الذكاء الاصطناعي التوليدي مسارًا مشابهًا ، حيث يعتمد الموظفون الآن على منصات مثل ChatGPT و Google Bard لاتصالات الأعمال الروتينية. وبالتالي ، يصبح من غير العملي منع جميع رسائل البريد الإلكتروني التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بشكل عشوائي.

تم اعتراض أحد هذه الهجمات من قبل Abnormal على رسالة بريد إلكتروني يُزعم أنها أرسلتها “Meta for Business” لإخطار المستلم بأن صفحته على Facebook قد انتهكت معايير المجتمع ولم يتم نشرها.

لتصحيح الموقف ، حث البريد الإلكتروني المستلم على النقر فوق الارتباط المقدم لتقديم استئناف. دون علمهم ، وجههم هذا الرابط إلى صفحة تصيد مصممة لسرقة بيانات اعتمادهم على Facebook. والجدير بالذكر أن البريد الإلكتروني عرض قواعد نحوية خالية من العيوب وقلّد بنجاح اللغة المرتبطة عادةً بـ Meta for Business.

كما سلطت الشركة الضوء على التحدي الكبير الذي تشكله رسائل البريد الإلكتروني المصممة بدقة والتي تشكلها هذه الرسائل فيما يتعلق بالكشف البشري. وجد غير طبيعي أنه عند مواجهة رسائل بريد إلكتروني تفتقر إلى الأخطاء النحوية أو الأخطاء المطبعية ، يكون الأفراد أكثر عرضة للوقوع ضحية لمثل هذه الهجمات.

وأضاف شيبلر: “يمكن أن تحاكي هجمات البريد الإلكتروني التي يتم إنشاؤها بواسطة الذكاء الاصطناعي الاتصالات المشروعة من الأفراد والعلامات التجارية”. “إنها مكتوبة بشكل احترافي ، مع حس شكلي متوقع بشأن مسألة تجارية ، وفي بعض الحالات يتم توقيعها من قبل مرسل مسمى من مؤسسة شرعية.”

تدابير للكشف عن النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي

يدعو شيبلر إلى استخدام الذكاء الاصطناعي باعتباره الطريقة الأكثر فاعلية لتحديد رسائل البريد الإلكتروني التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

تستخدم منصة Abnormal نماذج لغة كبيرة مفتوحة المصدر (LLMs) لتقييم احتمالية كل كلمة بناءً على سياقها. يتيح ذلك تصنيف رسائل البريد الإلكتروني التي تتوافق باستمرار مع اللغة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يتم استخدام أداتين خارجيتين للكشف عن الذكاء الاصطناعي ، وهما OpenAI Detector و GPTZero ، للتحقق من صحة هذه النتائج.

قال شيبلر: “نستخدم محرك تنبؤ متخصص لتحليل مدى احتمالية قيام نظام ذكاء اصطناعي باختيار كل كلمة في رسالة بريد إلكتروني نظرًا للسياق الموجود على يسار هذا البريد الإلكتروني”. “إذا كانت الكلمات الواردة في البريد الإلكتروني لها احتمالية عالية باستمرار (بمعنى أن كل كلمة تتماشى بشكل كبير مع ما سيقوله نموذج الذكاء الاصطناعي ، أكثر من النص البشري) ، فإننا نصنف البريد الإلكتروني على أنه ربما يكون مكتوبًا بواسطة الذكاء الاصطناعي.”

ومع ذلك ، تقر الشركة بأن هذا النهج ليس مضمونًا. قد تحتوي بعض رسائل البريد الإلكتروني غير المُنشأة بواسطة الذكاء الاصطناعي ، مثل التسويق المستند إلى النماذج أو رسائل البريد الإلكتروني الخاصة بالتوعية بالمبيعات ، على تسلسلات كلمات مشابهة لتلك التي تم إنشاؤها بواسطة الذكاء الاصطناعي. بالإضافة إلى ذلك ، يمكن أن تؤدي رسائل البريد الإلكتروني التي تحتوي على عبارات شائعة ، مثل مقتطفات من الكتاب المقدس أو الدستور ، إلى تصنيفات خاطئة للذكاء الاصطناعي.

وأضاف شيبلر: “لا يمكن حظر جميع رسائل البريد الإلكتروني التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، حيث توجد العديد من حالات الاستخدام المشروعة حيث يستخدم الموظفون الحقيقيون الذكاء الاصطناعي لإنشاء محتوى بريد إلكتروني”. “على هذا النحو ، يجب استخدام حقيقة أن البريد الإلكتروني يحتوي على مؤشرات الذكاء الاصطناعي جنبًا إلى جنب مع العديد من الإشارات الأخرى للإشارة إلى نية ضارة.”

التفريق بين المحتوى الشرعي والضار

لمعالجة هذه المشكلة ، ينصح شيبلر المنظمات بتبني حلول حديثة تكشف التهديدات المعاصرة ، بما في ذلك الهجمات المتطورة للغاية التي يولدها الذكاء الاصطناعي والتي تشبه إلى حد بعيد رسائل البريد الإلكتروني المشروعة. وقال إنه عند الدمج ، من المهم التأكد من أن هذه الحلول يمكن أن تفرق بين رسائل البريد الإلكتروني المشروعة التي تم إنشاؤها بواسطة الذكاء الاصطناعي وتلك ذات النوايا الخبيثة.

“بدلاً من البحث عن مؤشرات معروفة للتسوية ، والتي تتغير باستمرار ، فإن الحلول التي تستخدم الذكاء الاصطناعي لتحديد السلوك الطبيعي عبر بيئة البريد الإلكتروني – بما في ذلك أنماط وأنماط وعلاقات الاتصال الخاصة بالمستخدم – ستكون قادرة بعد ذلك على اكتشاف الحالات الشاذة التي قد تشير إلى هجوم محتمل ، بغض النظر عما إذا كان قد تم إنشاؤه بواسطة إنسان أو بواسطة الذكاء الاصطناعي “، أوضح.

كما ينصح المؤسسات بالحفاظ على ممارسات الأمن السيبراني الجيدة ، والتي تشمل إجراء تدريب مستمر للتوعية الأمنية لضمان بقاء الموظفين يقظين ضد مخاطر BEC.

علاوة على ذلك ، قال إن تنفيذ استراتيجيات مثل إدارة كلمات المرور والمصادقة متعددة العوامل (MFA) سيمكن المؤسسات من تخفيف الضرر المحتمل في حالة حدوث هجوم ناجح.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading