أداوت وتكنولوجيا

رجل خدع بالفيديو والتزييف العميق لصديقه


زادت عملية احتيال التزييف العميق في الصين من المخاوف من ذلك الذكاء الاصطناعي سيسمح للقراصنة بالحصول على المعلومات المالية بسهولة. يقال إن قراصنة يستخدمون برمجيات ذكاء اصطناعي متقدمة أقنعوا رجلًا في شمال الصين بتحويل أموال إلى صديقه ، لكن بدلاً من ذلك وجهوها إلى حساب احتيالي.

كان مقر الضحية في باوتو ، وهي منطقة في منغوليا الداخلية ، وأفادت الشرطة المحلية أن المتسلل استخدم الذكاء الاصطناعي لإعادة صورة الصديق في مكالمة فيديو بما في ذلك وجهه وصوته. دفعت عملية احتيال التزييف العميق الضحية إلى الاعتقاد بأنه كان يحول 4.3 مليون يوان (622 ألف دولار) لصديقه لتقديم وديعة مزايدة. عندما أخبر الصديق الضحية أنه لم يكن على علم بالحادثة ، أبلغ الرجل عن عملية الاحتيال إلى السلطات التي قالت إنها تمكنت من استرداد معظم الأموال المسروقة ولكن لا تزال تعمل على استعادة الباقي ، رويترز ذكرت.

يتم استخدام Weibo ، وهو موقع تدوين صغير صيني ، كمنتدى لمناقشة التهديد المستمر لعمليات الاحتيال عن طريق التزييف العميق ، مع انتشار الهاشتاج ، “عمليات احتيال #AI في جميع أنحاء البلاد” مع أكثر من 120 مليون مشاهدة يوم الاثنين. كتب أحد المستخدمين: “يُظهر هذا أنه يمكن للمحتالين استخدام الصور والأصوات ومقاطع الفيديو”. “هل يمكن لقواعد أمن المعلومات مواكبة تقنيات هؤلاء الأشخاص؟”

تأتي هذه الحادثة الأخيرة في الوقت الذي زادت فيه عمليات احتيال الذكاء الاصطناعي بشكل كبير في جميع أنحاء العالم ، مع تقارير عن المحتالين استخدام تقنية الذكاء الاصطناعي لتكرار الأصوات لتلقي الأموال عبر المكالمات الهاتفية. أصدرت وزارة الأمن الداخلي أ تقرير تحذير من عمليات الاحتيال عن طريق التزييف العميق ، قائلاً: “من الواضح أن خطورة وإلحاح التهديد الحالي من الوسائط التركيبية يعتمدان على عرض ومنظور وموقف من تسأل. تراوحت مجموعة المخاوف من “تهديد عاجل” إلى “لا داعي للذعر ، فقط كن مستعدًا”.

في المملكة المتحدة ، قام الرئيس التنفيذي لشركة طاقة محلية بتحويل 220 ألف يورو (حوالي 243 ألف دولار) إلى حساب مصرفي للموردين الهنغاريين بعد تلقي مكالمة هاتفية من رئيسه المفترض. قال الرئيس التنفيذي إن الصوت ينتمي في الواقع إلى محتال استخدم تقنية الصوت بالذكاء الاصطناعي لتكرار صوت الرئيس صحيفة وول ستريت جورنال أنه تعرف على اللكنة الألمانية الخفية وقال إنها تحمل “لحن” صوته.

في غضون ذلك ، في الولايات المتحدة ، حذر قسم شرطة في جنوب ولاية ويسكونسن السكان في وقت سابق من هذا الشهر من عمليات احتيال مماثلة بعد تلقي تقرير من شخص قال إنه تلقى مكالمة من شخص “بدا وكأنه قريبهم” ، ان بي سي شيكاغو ذكرت. على الرغم من أن الشرطة قالت إنها لا تستطيع التحقق رسميًا من أنه صوت تم إنشاؤه بواسطة الذكاء الاصطناعي ، فقد كتبوا في Facebook بريد، “نريد أن يدرك مجتمعنا أن هذه التكنولوجيا موجودة.”

وقالت وزارة الأمن الداخلي إن هذه السيناريوهات “ستزداد بلا شك مع انخفاض التكلفة والموارد الأخرى اللازمة لإنتاج منتجات مزيفة عميقة قابلة للاستخدام في نفس الوقت”. لتجنب الوقوع ضحية ، توصي وزارة الأمن الداخلي بالاتصال بالشخص الذي يُفترض أنه طلب المال للتحقق والاطلاع على طلبات الاحتيال الشائعة التي تشمل مطالبة الضحايا بإرسال أموال أو إرسال عملة مشفرة أو شراء بطاقات هدايا وإعطائهم أرقام البطاقات و أرقام التعريف الشخصية. “


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading