علوم تكنولوجية

ChatGPT يحبط أكثر من 250 ألف طلب لتزييف صور خلال الانتخابات الأمريكية

نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “ChatGPT يحبط أكثر من 250 ألف طلب لتزييف صور خلال الانتخابات الأمريكية”


كشف شركة OpenAI في تقرير حديث لها، عن أن الكثير من الأشخاص حاولوا استخدام مولد الصور DALL-E  التابع لها خلال موسم الانتخابات الأمريكية، لكن الشركة قالت إنها تمكنت من منعهم من استخدامه كأداة لإنشاء صور مزيفة.


وقالت OpenAI في تقرير جديد إن ChatGPT رفضت أكثر من 250 ألف طلب لإنشاء صور للرئيس بايدن والرئيس المنتخب ترامب ونائبة الرئيس هاريس ونائب الرئيس المنتخب فانس والحاكم والز، وأوضحت الشركة أن هذا نتيجة مباشرة لإجراء أمان نفذته سابقًا حتى يرفض ChatGPT إنشاء صور مع أشخاص حقيقيين، بما في ذلك السياسيين.


واستعدت OpenAI للانتخابات الرئاسية الأمريكية منذ بداية العام، حيث وضعت استراتيجية تهدف إلى منع استخدام أدواتها للمساعدة في نشر المعلومات المضللة وتأكدت من توجيه الأشخاص الذين يسألون ChatGPT عن التصويت في الولايات المتحدة إلى CanIVote-org.

وقالت OpenAI إن مليون رد من ChatGPT وجه الناس إلى الموقع الإلكتروني في الشهر الذي سبق يوم الانتخابات، كما أنتج برنامج Chatbot أيضًا مليوني استجابة في يوم الانتخابات واليوم التالي، حيث أخبر الأشخاص الذين يطلبون منه النتائج بالتحقق من وكالة أسوشيتد برس ورويترز ومصادر إخبارية أخرى.

وتأكدت OpenAI من أن ردود ChatGPT “لم تعبر عن تفضيلات سياسية أو توصي بمرشحين حتى عندما سُئلت صراحةً”.


بالطبع، DALL-E ليس مولد الصور الوحيد بالذكاء الاصطناعي، وهناك الكثير من الصور المزيفة المتعلقة بالانتخابات المنتشرة على وسائل التواصل الاجتماعي، حيث ظهرت كامالا هاريس في مقطع فيديو للحملة تم تعديله بحيث تقول أشياء لم تقلها بالفعل.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading