اخبار

استعدوا لانتخابات التزييف العميق لعام 2024


ظهرت بعض التزييف العميق لشخصيات سياسية في السنوات الأخيرة ، مثل مطالبة الرئيس الأوكراني فولوديمير زيلينسكي قواته بالاستسلام والتي تم الإفراج عنها العام الماضي. بمجرد أن تتقدم التكنولوجيا أكثر ، الأمر الذي قد لا يستغرق وقتًا طويلاً بالنظر إلى مدى سرعة تقدم الأشكال الأخرى للذكاء الاصطناعي التوليدي ، قد تظهر المزيد من هذه الأنواع من مقاطع الفيديو لأنها تصبح أكثر إقناعًا وأسهل في الإنتاج.

“لا أعتقد أن هناك موقعًا إلكترونيًا يمكنك أن تقول فيه ،” أنشئ لي مقطع فيديو لجو بايدن يقول X. ” يقول هاني فريد ، الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي ، “هذا غير موجود ، لكنه سيحدث”. “أنها فقط مسألة وقت. يعمل الأشخاص بالفعل على تحويل النص إلى فيديو “.

يتضمن ذلك شركات مثل Runway و Google و Meta. بمجرد أن تقوم إحدى الشركات بإصدار نسخة عالية الجودة من أداة AI إنشاء نص إلى فيديو ، فقد نرى العديد من الشركات الأخرى تطلق إصداراتها الخاصة بسرعة ، كما فعلنا بعد إصدار ChatGPT. يقول فريد إنه لا أحد يريد أن “يتخلف عن الركب” ، لذلك تميل هذه الشركات إلى الإفراج عن ما لديها بأسرع ما يمكن.

يقول فريد: “يذهلني باستمرار أنه في العالم المادي ، عندما نطلق المنتجات ، هناك إرشادات صارمة حقًا”. “لا يمكنك إطلاق منتج وتأمل ألا يقتل عميلك. لكن مع البرامج ، نحن مثل ، “هذا لا يعمل حقًا ، لكن دعنا نرى ما سيحدث عندما نصدره لمليارات الأشخاص.”

إذا بدأنا في رؤية عدد كبير من التزييف العميق ينتشر خلال الانتخابات ، فمن السهل أن نتخيل شخصًا مثل دونالد ترامب يشارك هذا النوع من المحتوى على وسائل التواصل الاجتماعي ويدعي أنه حقيقي. هناك تزييف عميق لقول الرئيس بايدن بشيء غير مؤهل يمكن أن يظهر قبل فترة وجيزة من الانتخابات ، وقد لا يكتشف الكثير من الناس أنه من صنع الذكاء الاصطناعي. أظهرت الأبحاث باستمرار ، بعد كل شيء ، أن الأخبار المزيفة تنتشر أبعد من الأخبار الحقيقية.

حتى لو لم تنتشر تقنية التزييف العميق في كل مكان قبل انتخابات 2024 ، والتي لا تزال على بعد 18 شهرًا ، فإن مجرد إمكانية إنشاء هذا النوع من المحتوى يمكن أن يؤثر على الانتخابات. إن معرفة أنه يمكن إنشاء صور وصوت وفيديو احتيالية بسهولة نسبية قد يجعل الناس لا يثقون في المواد المشروعة التي يصادفونها.

يقول أجدر: “في بعض النواحي ، لا يحتاج التزييف العميق والذكاء الاصطناعي التوليدي إلى المشاركة في الانتخابات حتى يظلوا يتسببون في اضطراب ، لأن البئر الآن قد تسمم بفكرة أن أي شيء يمكن أن يكون مزيفًا”. “هذا يوفر عذرًا مفيدًا حقًا إذا ظهر شيء غير مريح يميزك. يمكنك رفضها على أنها مزيفة “.

إذن ما الذي يمكن عمله حيال هذه المشكلة؟ أحد الحلول هو شيء يسمى C2PA. تقوم هذه التقنية بتشفير أي محتوى تم إنشاؤه بواسطة جهاز ، مثل الهاتف أو كاميرا الفيديو ، والمستندات التي التقطت الصورة وأين ومتى. ثم يتم الاحتفاظ بالتوقيع المشفر على دفتر أستاذ مركزي غير قابل للتغيير. سيسمح هذا للأشخاص الذين ينتجون مقاطع فيديو شرعية بإظهار أنها شرعية في الواقع.

تتضمن بعض الخيارات الأخرى ما يسمى بصمات الأصابع والعلامات المائية للصور ومقاطع الفيديو. تتضمن البصمات أخذ ما يسمى “تجزئات” من المحتوى ، والتي هي في الأساس مجرد سلاسل من بياناتها ، لذلك يمكن التحقق من شرعيتها لاحقًا. تتضمن العلامة المائية ، كما قد تتوقع ، إدخال علامة مائية رقمية على الصور ومقاطع الفيديو.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading