في عام 2020 ، وجد باحثون في مركز الإرهاب والتطرف ومكافحة الإرهاب في معهد ميدلبري للدراسات الدولية أن GPT-3 ، التكنولوجيا الأساسية لـ ChatGPT ، لديها “معرفة عميقة بشكل مثير للإعجاب بالمجتمعات المتطرفة” ويمكن حثها على إثارة الجدل في أسلوب إطلاق النار الجماعي وخيوط المنتديات الوهمية التي تناقش النازية والدفاع عن قنون وحتى النصوص المتطرفة متعددة اللغات.
انتشار التضليل والباطل
- الذكاء الاصطناعي: لأول مرة ، تم اكتشاف الشخصيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في حملة تضليل موالية للدولة ، مما فتح فصلًا جديدًا في التلاعب عبر الإنترنت.
- التزييف العميق قواعد: في معظم أنحاء العالم ، لا تستطيع السلطات فعل الكثير بشأن تقنية التزييف العميق ، حيث يوجد عدد قليل من القوانين لتنظيم التكنولوجيا. تأمل الصين أن تكون الاستثناء.
- دروس لجيل جديد: تختبر فنلندا طرقًا جديدة لتعليم الطلاب الدعاية. إليك ما يمكن أن تتعلمه البلدان الأخرى من نجاحها.
- أساطير كوفيد: يقول الخبراء إن انتشار المعلومات المضللة عن فيروس كورونا – خاصة على المنصات اليمينية المتطرفة مثل جاب – من المرجح أن يكون إرثًا دائمًا للوباء. ولا توجد حلول سهلة
قال متحدث باسم أوبن إيه آي تستخدم الآلات والبشر لمراقبة المحتوى الذي يتم تغذيته وإنتاجه بواسطة ChatGPT. تعتمد الشركة على كل من مدربي الذكاء الاصطناعي البشري وردود الفعل من المستخدمين لتحديد وتصفية بيانات التدريب السامة أثناء تعليم ChatGPT لإنتاج استجابات أكثر استنارة.
تحظر سياسات OpenAI استخدام تقنيتها للترويج للخداع أو خداع المستخدمين أو التلاعب بهم أو محاولة التأثير على السياسة ؛ تقدم الشركة أداة إشراف مجانية للتعامل مع المحتوى الذي يحرض على الكراهية أو إيذاء النفس أو العنف أو الجنس. ولكن في الوقت الحالي ، تقدم الأداة دعمًا محدودًا للغات غير الإنجليزية ولا تحدد المواد السياسية أو البريد العشوائي أو الخداع أو البرامج الضارة. يحذر ChatGPT المستخدمين من أنه “قد ينتج أحيانًا تعليمات ضارة أو محتوى متحيزًا.”
في الأسبوع الماضي ، أعلنت شركة OpenAI عن أداة منفصلة للمساعدة في تمييز الوقت الذي يكتب فيه النص من قبل الإنسان بدلاً من الذكاء الاصطناعي ، وذلك جزئيًا لتحديد حملات المعلومات الخاطئة الآلية. حذرت الشركة من أن أداتها لم تكن موثوقة تمامًا – حيث تحدد بدقة نصوص الذكاء الاصطناعي بنسبة 26 في المائة فقط من الوقت (مع تسمية النص المكتوب بشكل غير صحيح بنسبة 9 في المائة من الوقت) – ويمكن التهرب منها. عانت الأداة أيضًا مع النصوص التي يقل عدد أحرفها عن 1000 حرف أو كانت مكتوبة بلغات أخرى غير الإنجليزية.
أرفيند نارايانان ، أستاذ علوم الكمبيوتر في جامعة برينستون ، كتب على Twitter في ديسمبر أنه سأل ChatGPT بعض الأسئلة الأساسية حول أمن المعلومات التي طرحها على الطلاب في أحد الاختبارات. ورد الشات بوت بإجابات بدت معقولة لكنها في الواقع هراء ، كما كتب.
“الخطر هو أنه لا يمكنك معرفة متى يكون الخطأ ما لم تكن تعرف الإجابة بالفعل ،” هو كتب. “كان الأمر مقلقًا للغاية لدرجة أنني اضطررت إلى النظر في الحلول المرجعية الخاصة بي للتأكد من أنني لم أفقد عقلي.”
يشعر الباحثون أيضًا بالقلق من إمكانية استغلال هذه التكنولوجيا من قبل عملاء أجانب على أمل نشر معلومات مضللة باللغة الإنجليزية. بعض الشركات تستخدم بالفعل روبوتات المحادثة متعددة اللغات لدعم العملاء بدون مترجمين.