شعر أندريه دورونشيف بالذعر العام الماضي عندما شاهد مقطع فيديو على وسائل التواصل الاجتماعي بدا أنه يظهر رئيس أوكرانيا يستسلم لروسيا.
سرعان ما تم فضح الفيديو باعتباره مزيفًا عميقًا تم إنشاؤه صناعياً ، ولكن بالنسبة للسيد دورونشيف ، كان نذير قلق. هذا العام ، اقتربت مخاوفه من الواقع ، حيث بدأت الشركات في التنافس على تعزيز وإطلاق تكنولوجيا الذكاء الاصطناعي على الرغم من الفوضى التي يمكن أن تسببها.
أصبح الذكاء الاصطناعي التوليدي متاحًا الآن لأي شخص ، وهو قادر بشكل متزايد على خداع الأشخاص بالنصوص والصوت والصور ومقاطع الفيديو التي يبدو أن البشر تصوروها والتقطوها. أثار خطر السذاجة المجتمعية مخاوف بشأن التضليل ، وفقدان الوظائف ، والتمييز ، والخصوصية ، و ديستوبيا واسعة النطاق.
بالنسبة لرجال الأعمال مثل السيد دورونشيف ، فقد أصبحت أيضًا فرصة عمل. تقدم أكثر من اثنتي عشرة شركة الآن أدوات لتحديد ما إذا كان شيء ما قد تم إنشاؤه باستخدام الذكاء الاصطناعي ، بأسماء مثل Sensity AI (اكتشاف التزييف العميق) و Fictitious.AI (اكتشاف الانتحال) و Originality.AI (الانتحال أيضًا).
أسس السيد دورونشيف ، وهو مواطن روسي ، شركة Optic في سان فرانسيسكو للمساعدة في التعرف على المواد الاصطناعية أو المخادعة – ليكون ، على حد قوله ، “آلة تصوير بالأشعة السينية في المطارات للمحتوى الرقمي”.
في مارس ، كشفت عن موقع على شبكة الإنترنت حيث يمكن للمستخدمين التحقق من الصور لمعرفة ما إذا كانت قد تم التقاطها من خلال صور فعلية أو ذكاء اصطناعي. تعمل على خدمات أخرى للتحقق من الفيديو والصوت.
قال السيد دورونشيف ، الذي كان مستثمرًا في تطبيق مبادلة الوجه يسمى Reface ، “ستصبح أصالة المحتوى مشكلة رئيسية للمجتمع ككل”. “نحن ندخل عصر المنتجات المقلدة الرخيصة “. وقال إنه نظرًا لأن إنتاج محتوى مزيف لا يكلف الكثير ، فيمكن القيام به على نطاق واسع.
من المتوقع أن يتجاوز سوق الذكاء الاصطناعي التوليدي الإجمالي 109 مليارات دولار بحلول عام 2030 ، بمعدل نمو 35.6 في المائة سنويًا حتى ذلك الحين ، وفقًا لشركة أبحاث السوق Grand View Research. الشركات التي تركز على اكتشاف التكنولوجيا هي جزء متزايد من الصناعة.
بعد شهور من إنشائه من قبل طالب في جامعة برينستون ، تدعي GPTZero أن أكثر من مليون شخص قد استخدموا برنامجه للبحث عن نص تم إنشاؤه بواسطة الكمبيوتر. كانت Reality Defender واحدة من 414 شركة تم اختيارها من بين 17000 تطبيق ليتم تمويلها من قبل مسرّع بدء التشغيل Y Combinator هذا الشتاء.
جمعت CopyLeaks العام الماضي 7.75 مليون دولار جزئيًا لتوسيع خدمات مكافحة الانتحال للمدارس والجامعات لاكتشاف الذكاء الاصطناعي في عمل الطلاب. أنهى Sentinel ، الذي تخصص مؤسسوه في الأمن السيبراني وحرب المعلومات للبحرية الملكية البريطانية ومنظمة حلف شمال الأطلسي ، جولة أولية بقيمة 1.5 مليون دولار في عام 2020 كان مدعومًا جزئيًا من قبل أحد المهندسين المؤسسين لـ Skype للمساعدة في حماية الديمقراطيات من التزييف العميق وغيرها من المواد الخبيثة. وسائط تركيبية.
وتشارك شركات التكنولوجيا الكبرى أيضًا: تدعي FakeCatcher من Intel أنها قادرة على تحديد مقاطع فيديو deepfake بدقة 96 في المائة ، جزئيًا عن طريق تحليل البكسل بحثًا عن علامات خفية لتدفق الدم في الوجوه البشرية.
داخل الحكومة الفيدرالية ، تخطط وكالة مشاريع الأبحاث الدفاعية المتقدمة لإنفاق ما يقرب من 30 مليون دولار هذا العام لتشغيل برنامج الطب الشرعي الدلالي ، وهو برنامج يطور خوارزميات لاكتشاف التزييف العميق وتحديد ما إذا كانت ضارة.
حتى أوبن إيه آي ، التي شحنت طفرة الذكاء الاصطناعي عندما أطلقت أداة ChatGPT أواخر العام الماضي ، تعمل على خدمات الكشف. أطلقت الشركة ، ومقرها سان فرانسيسكو ، أداة مجانية لأول مرة في يناير للمساعدة في التمييز بين النص المؤلف من قبل الإنسان والنص المكتوب بواسطة الذكاء الاصطناعي.
شددت أوبن إيه آي على أنه بينما كانت الأداة عبارة عن تحسين على التكرارات السابقة ، فإنها لا تزال “غير موثوقة تمامًا”. حددت الأداة بشكل صحيح 26 في المائة من النص الذي تم إنشاؤه بشكل مصطنع ، لكنها حددت خطأ 9 في المائة من النص من البشر على أنه تم إنشاؤه بواسطة الكمبيوتر.
أداة OpenAI مثقلة بالعيوب الشائعة في برامج الكشف: فهي تعاني من النصوص القصيرة والكتابة غير الإنجليزية. في البيئات التعليمية ، تم اتهام أدوات الكشف عن الانتحال مثل TurnItIn بتصنيف المقالات التي كتبها الطلاب بشكل غير دقيق على أنها تم إنشاؤها بواسطة روبوتات المحادثة.
أدوات الكشف متأخرة بطبيعتها عن التكنولوجيا التوليدية التي تحاول اكتشافها. بحلول الوقت الذي يكون فيه نظام الدفاع قادرًا على التعرف على عمل روبوت محادثة جديد أو منشئ صور ، مثل Google Bard أو Midjourney ، بدأ المطورون بالفعل بتكرار جديد يمكنه التهرب من هذا الدفاع. وُصِف الموقف بأنه سباق تسلح أو علاقة فيروسات لمكافحة الفيروسات حيث يولد المرء الآخر مرارًا وتكرارًا.
قال هاني فريد ، أستاذ علوم الكمبيوتر في الجامعة: “عندما يصدر Midjourney الإصدار Midjourney 5 ، ينفجر مسدس البداية الخاص بي ، وأبدأ العمل على اللحاق بالركب – وأثناء قيامي بذلك ، فإنهم يعملون على Midjourney 6”. من كاليفورنيا ، بيركلي ، وهو متخصص في الطب الشرعي الرقمي ويشارك أيضًا في صناعة الكشف عن الذكاء الاصطناعي. “إنها لعبة عدائية بطبيعتها حيث أثناء عملي على الكاشف ، يقوم شخص ما ببناء مصيدة فئران أفضل ، ومركب أفضل.”
قال جوشوا تاكر ، أستاذ السياسة في جامعة نيويورك والمدير المشارك لمركز الإعلام الاجتماعي والسياسة ، إنه على الرغم من اللحاق المستمر بالركب ، فقد شهدت العديد من الشركات طلبًا على اكتشاف الذكاء الاصطناعي من المدارس والمعلمين. وتساءل عما إذا كانت سوق مماثلة ستظهر قبل انتخابات 2024.
قال: “هل سنرى نوعًا من الجناح الموازي لهذه الشركات يتطور للمساعدة في حماية المرشحين السياسيين حتى يتمكنوا من معرفة متى يتم استهدافهم نوعًا ما بواسطة هذه الأنواع من الأشياء”.
قال الخبراء إن مقاطع الفيديو التي تم إنشاؤها صناعياً لا تزال صعبة التحديد إلى حد ما ويسهل التعرف عليها ، لكن استنساخ الصوت وصياغة الصور كانا متقدمين للغاية. سيتطلب فصل الحقيقي عن المزيف تكتيكات الطب الشرعي الرقمي مثل البحث العكسي عن الصور وتتبع عنوان IP.
يتم اختبار برامج الكشف المتوفرة بأمثلة “مختلفة تمامًا عن الذهاب إلى البرية ، حيث تم تعديل الصور واقتصاصها وتقليص حجمها وتحويلها إلى رموز وتعليقات توضيحية ، والله أعلم ماذا حدث لها أيضًا” قال السيد فريد.
وأضاف: “غسل المحتوى يجعل هذه المهمة صعبة”.
مبادرة أصالة المحتوى ، وهي عبارة عن اتحاد يضم 1000 شركة ومنظمة ، هي مجموعة تحاول جعل التكنولوجيا التوليدية واضحة منذ البداية. (يقودها Adobe ، مع أعضاء مثل The New York Times ومشغلي الذكاء الاصطناعي مثل Stability AI) بدلاً من تجميع أصل صورة أو مقطع فيديو معًا في وقت لاحق من دورة حياتها ، تحاول المجموعة وضع معايير يمكن تطبيقها بيانات الاعتماد التي يمكن تتبعها للعمل الرقمي عند الإنشاء.
قالت Adobe الأسبوع الماضي إن تقنيتها التوليدية Firefly سيتم دمجها في Google Bard ، حيث ستلحق “ملصقات التغذية” بالمحتوى الذي تنتجه ، بما في ذلك تاريخ صنع الصورة والأدوات الرقمية المستخدمة لإنشائها.
قال جيف ساكاسيغاوا ، مهندس الثقة والأمان في بيرسونا ، وهي شركة تساعد في التحقق من هوية المستهلك ، إن التحديات التي يثيرها الذكاء الاصطناعي قد بدأت للتو.
قال: “الموجة تبني الزخم”. “إنه يتجه نحو الشاطئ. لا أعتقد أنها تحطمت بعد “.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.