التزييف العميق للصوت الذي يولده الذكاء الاصطناعي ليس جيدًا – حتى الآن

التزييف العميق للصوت الذي يولده الذكاء الاصطناعي ليس جيدًا – حتى الآن


يقول هاسولد إن جدته كانت ضحية لعملية احتيال انتحال شخصية في منتصف العقد الأول من القرن الحادي والعشرين عندما اتصل به المهاجمون وتظاهروا بأنه هو ، وأقنعوها بإرسال 1500 دولار إليهم.

“مع جدتي ، لم يذكر المحتال من كان يتصل في البداية ، لقد بدأوا للتو يتحدثون عن كيفية اعتقالهم أثناء حضورهم مهرجانًا موسيقيًا في كندا واحتاجوا إليها لإرسال أموال لكفالة. كان ردها “كرين ، هل هذا أنت؟” ثم حصلوا على ما يحتاجون إليه بالضبط “. “المحتالون يهيئون ضحاياهم في الأساس إلى تصديق ما يريدون منهم تصديقه”.

كما هو الحال مع العديد من عمليات الخداع المتعلقة بالهندسة الاجتماعية ، تعمل سلبيات انتحال الهوية بشكل أفضل عندما يتم اكتشاف الهدف في الشعور بالإلحاح ومحاولة مساعدة شخص ما أو إكمال مهمة يعتقدون أنها مسؤوليتهم.

“تركت جدتي لي بريدًا صوتيًا بينما كنت أقود السيارة إلى العمل تقول شيئًا مثل ‘أتمنى أن تكون بخير. لا تقلق ، لقد أرسلت المال ولن أخبر أحداً.

يقول جاستن هوتشينز ، مدير البحث والتطوير في شركة الأمن السيبراني Set Solutions ، إنه يرى الحيل الصوتية المزيفة على أنها مصدر قلق متزايد ، لكنه قلق أيضًا بشأن المستقبل الذي تصبح فيه عمليات الاحتيال التي تعتمد على الذكاء الاصطناعي أكثر آلية.

يقول Hutchens عن منصات مثل ChatGPT من Open AI: “أتوقع أنه في المستقبل القريب ، سنبدأ في رؤية الجهات الفاعلة في التهديد تجمع بين تقنية الصوت العميق المزيف مع تفاعلات المحادثة التي تدعمها نماذج اللغة الكبيرة”.

في الوقت الحالي ، على الرغم من ذلك ، يحذر هاسولد من الإسراع في افتراض أن عمليات الاحتيال لانتحال الهوية الصوتية مدفوعة بالتزييف العميق. بعد كل شيء ، لا تزال النسخة التناظرية للاحتيال موجودة ولا تزال مقنعة للهدف الصحيح في الوقت المناسب.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *