استخدام الذكاء الاصطناعي في الانتخابات يطلق شرارة التدافع على حواجز الحماية

استخدام الذكاء الاصطناعي في الانتخابات يطلق شرارة التدافع على حواجز الحماية


في تورنتو ، أصدر مرشح في انتخابات رئاسة البلدية هذا الأسبوع والذي تعهد بإخلاء مخيمات المشردين مجموعة من الوعود الانتخابية التي يوضحها الذكاء الاصطناعي ، بما في ذلك صور مزيفة لأشخاص يقيمون في أحد شوارع وسط المدينة وصورة ملفقة لخيام أقيمت في حديقة. .

في نيوزيلندا ، نشر حزب سياسي عرضًا واقعيًا على إنستغرام لصوص مزيفين يهاجمون متجر مجوهرات.

في شيكاغو ، اشتكى صاحب المركز الثاني في تصويت العمدة في أبريل من أن حسابًا على تويتر يتنكر في شكل منفذ إخباري قد استخدم الذكاء الاصطناعي لاستنساخ صوته بطريقة توحي بأنه يتغاضى عن وحشية الشرطة.

ما بدأ قبل بضعة أشهر كتقطير بطيء لرسائل البريد الإلكتروني لجمع الأموال والصور الترويجية التي ألفها الذكاء الاصطناعي للحملات السياسية ، تحول إلى تدفق مستمر من مواد الحملة التي أنشأتها التكنولوجيا ، وإعادة كتابة قواعد اللعبة السياسية للانتخابات الديمقراطية في جميع أنحاء العالم.

على نحو متزايد ، يقول المستشارون السياسيون وباحثو الانتخابات والمشرعون إن وضع حواجز حماية جديدة ، مثل التشريعات التي تحد من الإعلانات التي يتم إنشاؤها صناعياً ، يجب أن تكون أولوية ملحة. فشلت الدفاعات الحالية ، مثل قواعد وخدمات وسائل التواصل الاجتماعي التي تدعي الكشف عن محتوى الذكاء الاصطناعي ، في فعل الكثير لإبطاء المد.

مع بدء السباق الرئاسي الأمريكي 2024 في الاحتدام ، تختبر بعض الحملات التكنولوجيا بالفعل. أصدرت اللجنة الوطنية للحزب الجمهوري مقطع فيديو يحتوي على صور تم إنشاؤها بشكل مصطنع لسيناريوهات يوم القيامة بعد أن أعلن الرئيس بايدن عن ترشيحه لإعادة انتخابه ، بينما نشر حاكم فلوريدا رون ديسانتيس صورًا مزيفة للرئيس السابق دونالد جيه ترامب مع الدكتور أنتوني فوسي ، رئيس الصحة السابق. رسمي. جرب الحزب الديمقراطي رسائل جمع الأموال التي صاغها الذكاء الاصطناعي في الربيع – ووجد أنها غالبًا ما كانت أكثر فاعلية في تشجيع المشاركة والتبرعات من النسخ المكتوبة بالكامل من قبل البشر.

يرى بعض السياسيين أن الذكاء الاصطناعي وسيلة للمساعدة في تقليل تكاليف الحملة ، من خلال استخدامه لإنشاء ردود فورية على أسئلة النقاش أو مهاجمة الإعلانات ، أو لتحليل البيانات التي قد تتطلب خبراء باهظين.

في الوقت نفسه ، تتمتع التكنولوجيا بإمكانية نشر المعلومات المضللة إلى جمهور عريض. يقول الخبراء إن مقطع فيديو مزيف غير ممتع ، أو رسالة بريد إلكتروني مليئة بالروايات الكاذبة التي يتم إنتاجها بواسطة الكمبيوتر ، أو صورة ملفقة للانحلال الحضري يمكن أن تعزز الأحكام المسبقة وتوسع الانقسام الحزبي من خلال إظهار الناخبين لما يتوقعون رؤيته.

التكنولوجيا بالفعل أقوى بكثير من المعالجة اليدوية – ليست مثالية ، لكنها تتحسن بسرعة وسهلة التعلم. في مايو ، قال الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، الذي ساعدت شركته في إطلاق طفرة الذكاء الاصطناعي العام الماضي من خلال برنامج الدردشة ChatGPT الشهير ، أمام لجنة فرعية بمجلس الشيوخ إنه كان قلقًا بشأن موسم الانتخابات.

وقال إن قدرة التكنولوجيا “على التلاعب ، والإقناع ، وتقديم نوع من المعلومات المضللة التفاعلية الفردية” كانت “مجال قلق كبير”.

قالت النائبة إيفيت دي كلارك ، وهي ديمقراطية من نيويورك ، في بيان الشهر الماضي إن الدورة الانتخابية لعام 2024 “تستعد لتكون أول انتخابات يسود فيها المحتوى الناتج عن الذكاء الاصطناعي.” قدمت هي وغيرها من الديمقراطيين في الكونجرس ، بما في ذلك السناتور إيمي كلوبوشار من مينيسوتا ، تشريعات تتطلب إعلانات سياسية تستخدم مواد تم إنشاؤها بشكل مصطنع لحمل إخلاء المسؤولية. تم التوقيع على مشروع قانون مماثل في ولاية واشنطن مؤخرًا ليصبح قانونًا.

أدانت الرابطة الأمريكية للمستشارين السياسيين مؤخرًا استخدام محتوى التزييف العميق في الحملات السياسية باعتباره انتهاكًا لقواعدها الأخلاقية.

قال لاري هوينه ، الرئيس القادم للمجموعة: “سوف يميل الناس إلى دفع الأمور إلى أبعد الحدود ومعرفة أين يمكنهم أخذ الأشياء”. “كما هو الحال مع أي أداة ، يمكن أن يكون هناك استخدامات سيئة وأفعال سيئة استخدامها للكذب على الناخبين ، لتضليل الناخبين ، لخلق إيمان بشيء غير موجود.”

جاء تدخل التكنولوجيا الأخير في السياسة بمثابة مفاجأة في تورنتو ، المدينة التي تدعم نظامًا بيئيًا مزدهرًا لأبحاث الذكاء الاصطناعي والشركات الناشئة. تجري انتخابات البلدية يوم الاثنين.

قدم المرشح المحافظ في السباق ، أنتوني فوري ، كاتب عمود إخباري سابق ، منصته مؤخرًا في وثيقة كانت بطول عشرات الصفحات ومليئة بالمحتوى الذي تم إنشاؤه صناعياً لمساعدته على اتخاذ موقف صارم ضد الجريمة.

أظهرت نظرة فاحصة بوضوح أن العديد من الصور لم تكن حقيقية: أحد المشاهد المعملية يظهر العلماء الذين بدوا وكأنهم فقاعات فضائية. امرأة في عرض آخر كانت ترتدي دبوسًا على كارديجانها بحروف غير مقروءة ؛ ظهرت علامات مماثلة في صورة شريط تحذير في موقع بناء. كما استخدمت حملة السيد فوري صورة اصطناعية لامرأة جالسة وذراعان متقاطعتان وذراع ثالث يلامس ذقنها.

قام المرشحون الآخرون بالتنقيب عن هذه الصورة للضحك في مناظرة هذا الشهر: “نحن في الواقع نستخدم صورًا حقيقية” ، قال جوش ماتلو ، الذي عرض صورة لعائلته وأضاف أنه “لا أحد في صورنا لديه ثلاثة أذرع.”

ومع ذلك ، تم استخدام التصورات القذرة لتضخيم حجة السيد فوري. اكتسب زخماً كافياً ليصبح واحداً من أكثر الأسماء شهرة في انتخابات شارك فيها أكثر من 100 مرشح. في نفس المناظرة ، أقر باستخدام التكنولوجيا في حملته ، مضيفًا أنه “سيكون لدينا بعض الضحك هنا بينما نواصل تعلم المزيد عن الذكاء الاصطناعي”

يشعر الخبراء السياسيون بالقلق من أن الذكاء الاصطناعي ، عند إساءة استخدامه ، يمكن أن يكون له تأثير مدمر على العملية الديمقراطية. المعلومات المضللة هي خطر دائم ؛ قال أحد منافسي السيد فيري في إحدى المناظرات أنه بينما يستخدم أعضاء فريقها ChatGPT ، فإنهم دائمًا يتحققون من نتائجها.

وكتب داريل إم ويست ، زميل بارز في معهد بروكينغز ، في تقرير الشهر الماضي: “إذا كان بإمكان شخص ما إحداث ضجيج أو خلق حالة من عدم اليقين أو تطوير روايات كاذبة ، فقد يكون ذلك وسيلة فعالة للتأثير على الناخبين والفوز بالسباق”. “منذ الانتخابات الرئاسية لعام 2024 قد تصل إلى عشرات الآلاف من الناخبين في عدد قليل من الولايات ، فإن أي شيء يمكن أن يدفع الناس في اتجاه أو آخر يمكن أن ينتهي به الأمر ليكون حاسمًا.”

قال بن كولمان ، الرئيس التنفيذي لشركة Reality Defender ، وهي شركة تقدم خدمات للكشف عن الذكاء الاصطناعي ، إن محتوى الذكاء الاصطناعي المتطور يظهر بشكل متكرر أكثر على الشبكات الاجتماعية التي كانت غير راغبة أو غير قادرة على ضبطه. وقال “ضرر لا يمكن إصلاحه” قبل معالجته.

قال السيد كولمان: “الشرح لملايين المستخدمين أن المحتوى الذي رأوه بالفعل ومشاركته كان مزيفًا ، بعد مرور فترة طويلة على وقوع الحدث ، أصبح قليلًا جدًا ومتأخرًا للغاية”.

لعدة أيام هذا الشهر ، أجرى بث مباشر على Twitch نقاشًا مستمرًا وغير آمن للعمل بين الإصدارات الاصطناعية من السيد بايدن والسيد ترامب. تم تحديد كلاهما بوضوح على أنهما “كيانات ذكاء اصطناعي” محاكية ، ولكن إذا خلقت حملة سياسية منظمة مثل هذا المحتوى وانتشر على نطاق واسع دون أي إفشاء ، فقد يؤدي ذلك بسهولة إلى التقليل من قيمة المواد الحقيقية ، على حد قول خبراء المعلومات المضللة.

يمكن للسياسيين أن يتجاهلوا المساءلة ويزعموا أن اللقطات الأصلية لأعمال المساومة لم تكن حقيقية ، وهي ظاهرة تُعرف باسم عائد الكاذب. يمكن للمواطنين العاديين صنع مزيفة خاصة بهم ، بينما يمكن للآخرين ترسيخ أنفسهم بشكل أعمق في فقاعات المعلومات المستقطبة ، معتقدين فقط المصادر التي اختاروا تصديقها.

كتب جوش غولدشتاين ، زميل باحث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون ، في رسالة بالبريد الإلكتروني: “إذا لم يثق الناس بأعينهم وآذانهم ، فقد يقولون فقط ،” من يدري؟ ” “يمكن أن يعزز هذا الانتقال من الشك الصحي الذي يشجع على العادات الجيدة (مثل القراءة الجانبية والبحث عن مصادر موثوقة) إلى الشك غير الصحي بأنه من المستحيل معرفة ما هو صحيح.”



Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *