نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “دراسة: ارتفاع هجمات “تبديل الوجه” بتقنية Deepfake بنسبة 704%”
وأرجع المحللون في شركة iProov، وهي شركة بريطانية للقياسات الحيوية، هذه الزيادة إلى تزايد إمكانية الوصول إلى أدوات الذكاء الاصطناعي التوليدية المتطورة.
نظرًا لقدرتها على معالجة السمات الرئيسية لصورة أو مقطع فيديو، يصعب اكتشاف عمليات تبديل الوجه التي يتم إجراؤها باستخدام GenAI.
كما أنها سهلة الاستخدام وبأسعار معقولة، لإنشاء مقايضة وجه مقنعة، كل ما تحتاجه هو برنامج جاهز للاستخدام، يتم بعد ذلك تغذية المخرجات المعالجة أو الاصطناعية إلى كاميرا افتراضية وفقا لما أوردته TheNextWeb.
وقال الدكتور أندرو نيويل، كبير المسؤولين العلميين في iProov: “لقد كان هناك انتشار في أدوات تبديل الوجه، مما يجعل من السهل جدًا إنشاء وحقن عمليات تبديل الوجه باستخدام القليل جدًا من المعرفة التقنية”.
“تنتشر المعرفة بهذه الأدوات بسرعة من خلال منتديات تبادل المعلومات، إلى جانب تقنيات تجاوز العديد من الدفاعات الموجودة.”
إخفاء جرائم التزييف العميق
تعد SwapFace وDeepFaceLive من أكثر الأدوات شيوعًا بالنسبة للممثلين السيئين، وفقًا لـ iProov.
غالبًا ما يجمعها المهاجمون مع المحاكيات – التي تحاكي جهاز المستخدم، مثل الهاتف المحمول – إلى جانب طرق أخرى لمعالجة البيانات الوصفية.
باستخدام هذه الأدوات، يمكن للمحتالين إخفاء أدلة الكاميرات الافتراضية، مما يجعل من الصعب اكتشاف عمليات تبديل الوجه.
وسرعان ما استغل محتالو الهوية هذه الثغرة الأمنية. من النصف الأول إلى النصف الثاني من العام الماضي، ارتفع استخدام وسائط التزييف العميق إلى جانب انتحال البيانات الوصفية بنسبة 672%.
وفي الفترة نفسها، كانت هناك زيادة بنسبة 353% في عدد الجهات التهديدية التي تستخدم برامج المحاكاة.
التعاون آخذ في الارتفاع أيضًا، ومن بين المجموعات التي حددها محللو iProov، تم إنشاء ما يقرب من نصفها (47%) في عام 2023.
مقايضة الوجه في العناوين الرئيسية
يأتي بحث iProov بعد أيام فقط من واحدة من أكبر عمليات الاحتيال العميق في التاريخ.
تم خداع عاملة مالية في هونج كونج لتحويل 200 مليون دولار هونج كونج (23.8 مليون يورو) إلى محتالين تظاهروا بأنهم زملائها في مكالمة فيديو، وفقًا للشرطة الصينية بخلاف الضحية، كان كل شخص في المكالمة بمثابة استجمام رقمي لموظف حقيقي.
وقال نيويل: “على الرغم من أنه لم يتم تأكيد ذلك، فمن المحتمل أن هذا الهجوم استخدم تقنية تبديل الوجه، والتي توفر لممثلي التهديد مستوى عالٍ جدًا من التحكم في مقطع الفيديو المزيف العميق الناتج، بالإضافة إلى تقنيات الحقن لجعله يبدو كما لو كان الفيديو موجودًا على كما لو كانت من كاميرا حقيقية.”
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.