نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “الذكاء الاصطناعى منح حيلة جديدة للمحتالين..تعرف على كيفية تجنبها”
اكتسبت Deepfakes سمعة سيئة خلال السنوات القليلة الماضية بعدد من الحوادث البارزة، مثل استخدام صورة الممثلة إيما واتسون في سلسلة من الإعلانات الموحية التي ظهرت على Facebook و Instagram.
كان هناك أيضًا مقطع فيديو تمت مشاركته على نطاق واسع من عام 2022 والذي بدا فيه الرئيس الأوكراني فولوديمير زيلينسكي يطلب من الأوكرانيين “إلقاء السلاح”، وفقاً لصحيفة “مترو”
الآن، أصبحت تقنية إنشاء الصوت العميق، نسخة واقعية من صوت الشخص، شائعة بشكل متزايد.
لإنشاء نسخة واقعية من صوت شخص ما، تحتاج إلى بيانات لتدريب الخوارزمية، وهذا يعني وجود الكثير من التسجيلات الصوتية لصوت هدفك المقصود، كلما زادت أمثلة صوت الشخص التي يمكنك إدخالها في الخوارزميات، كانت النسخة النهائية أفضل وأكثر إقناعًا.
يشارك الكثير منا بالفعل تفاصيل حياتنا اليومية على الإنترنت، وهذا يعني أن البيانات الصوتية المطلوبة لإنشاء نسخة واقعية من الصوت يمكن أن تكون متاحة بسهولة على وسائل التواصل الاجتماعي.
ومن الناحية العملية، يمكن أن يكون هذا بسيطًا مثل كتابة بعض النصوص وجعل الكمبيوتر يقولها بصوت عالٍ بما يشبه صوتك.
وتخاطر هذه القدرة بزيادة انتشار المعلومات الصوتية المضللة، ويمكن استخدامه لمحاولة التأثير على الرأي العام الدولي أو الوطني، كما يظهر في “مقاطع فيديو” زيلينسكي.
لكن انتشار هذه التقنيات وتوافرها يفرضان تحديات كبيرة على المستوى المحلي أيضًا – لا سيما في الاتجاه المتزايد لـ”مكالمات احتيال الذكاء الاصطناعي”، وسيتلقى العديد من الأشخاص رسالة احتيال أو مكالمة تصيد تخبرنا، على سبيل المثال، أن جهاز الكمبيوتر الخاص بنا قد تعرض للاختراق ويجب علينا تسجيل الدخول على الفور، مما قد يمنح المتصل إمكانية الوصول إلى بياناتنا.
سلطت قصة أخيرة نقلتها CNN الضوء على حادثة تلقت فيها أم مكالمة من رقم غير معروف، عندما ردت على الهاتف، كانت ابنتها، وزُعم أن الابنة قد اختطفت وكانت تتصل بوالدتها لطلب فدية.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.