انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر
أصدرت اليوم مختبرات AI21 المنافسة لـ OpenAI نتائج تجربة اجتماعية ، وهي لعبة على الإنترنت تسمى “Human or Not ،” التي وجدت أن 32٪ من الناس لا يستطيعون التمييز بين الإنسان وروبوت الذكاء الاصطناعي.
اللعبة ، التي قالت الشركة إنها أكبر اختبار تورينج حتى الآن ، قامت بإقران اللاعبين لمحادثات مدتها دقيقتان باستخدام روبوت الذكاء الاصطناعي استنادًا إلى نماذج اللغات الكبيرة الرائدة (LLMs) مثل OpenAI’s GPT-4 و AI21 Labs ‘Jurassic- 2 ، وفي النهاية حللت أكثر من مليون محادثة وتخمينات.
كانت النتائج مدهشة: لسبب واحد ، كشف الاختبار أن الناس وجدوا أنه من الأسهل التعرف على زميل بشري – عند التحدث إلى البشر ، توقع المشاركون 73٪ من الوقت. ولكن عند التحدث إلى الروبوتات ، خمن المشاركون 60٪ فقط من الوقت.
تثقيف المشاركين حول قدرات LLM
ولكن بخلاف الأرقام ، لاحظ الباحثون أن المشاركين استخدموا العديد من الأساليب والاستراتيجيات الشائعة لتحديد ما إذا كانوا يتحدثون إلى إنسان أو روبوت. على سبيل المثال ، افترضوا أن الروبوتات لا ترتكب أخطاء إملائية أو أخطاء نحوية أو تستخدم لغة عامية ، على الرغم من أن معظم العارضين في اللعبة قد تم تدريبهم على ارتكاب هذه الأنواع من الأخطاء واستخدام الكلمات العامية.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
طرح المشاركون أيضًا أسئلة شخصية بشكل متكرر ، مثل “من أين أنت؟” ، “ماذا تفعل؟” أو “ما اسمك؟” ، معتقدين أن روبوتات الذكاء الاصطناعي لن يكون لها تاريخ شخصي أو خلفية شخصية ، وأن ردودهم ستقتصر على مواضيع أو مطالبات معينة. ومع ذلك ، كانت الروبوتات قادرة في الغالب على الإجابة على هذه الأنواع من الأسئلة ، حيث تم تدريبها على الكثير من القصص الشخصية.
بعد المحادثات التي دامت دقيقتين ، طُلب من المستخدمين تخمين من كانوا يتحدثون معه – إنسان أم روبوت. بعد أكثر من شهر من اللعب وملايين المحادثات ، أظهرت النتائج أن 32٪ من الناس لا يمكنهم التمييز بين الإنسان والذكاء الاصطناعي.
وفي تطور فلسفي مثير للاهتمام ، افترض بعض المشاركين أنه إذا كان شريكهم في المناقشة مهذبًا جدًا ، فمن المحتمل أن يكونوا روبوتًا.
لكن الغرض من “الإنسان أو الذكاء الاصطناعي” يتجاوز مجرد لعبة بسيطة ، كما قال عاموس ميرون ، مبتكر اللعبة وقائد المنتج الإبداعي في مختبرات AI21 ومقرها تل أبيب ، لموقع VentureBeat في مقابلة.
“الفكرة هي أن يكون لديك شيء أكثر أهمية على عدة مستويات – أولاً هو تثقيف الناس والسماح لهم بتجربة الذكاء الاصطناعي في هذا المجال [conversational] بشكل خاص ، خاصة إذا كانوا قد جربوها كأداة إنتاجية فقط “. “سيكون عالمنا على الإنترنت مليئًا بالعديد من روبوتات الذكاء الاصطناعي ، ونريد أن نعمل على تحقيق الهدف المتمثل في استخدامها من أجل الخير ، لذلك نريد أن نسمح للأشخاص بمعرفة ما تستطيع التكنولوجيا تحقيقه . ”
استخدمت AI21 Labs طريقة اللعب لتعليم الذكاء الاصطناعي من قبل
هذه ليست أول جولة في AI21 Labs مع اللعب كأداة تعليمية AI. قبل عام ، تصدرت عناوين الأخبار الرئيسية مع إصدار “اسأل روث بادر جينسبيرغ” ، وهو نموذج ذكاء اصطناعي تنبأ بكيفية استجابة جينسبيرج للأسئلة. وهو يستند إلى 27 عامًا من الكتابات القانونية لجينسبيرغ في المحكمة العليا ، جنبًا إلى جنب مع المقابلات الإخبارية والخطب العامة.
قال ميرون إن ‘Human or AI’ هي نسخة أكثر تقدمًا من تلك اللعبة ، مضيفًا أنه وفريقه لم يفاجأوا كثيرًا بالنتائج.
قال: “أعتقد أننا افترضنا أن بعض الناس لن يكونوا قادرين على معرفة الفرق”. لكن ما فاجأه هو ما يعلمنا إياه حقًا عن البشر.
وقال: “النتيجة هي أن الناس يفترضون الآن أن معظم الأشياء التي يقوم بها البشر على الإنترنت قد تكون وقحة ، وهو ما أعتقد أنه مضحك” ، مضيفًا التحذير من أن الناس اختبروا الروبوتات بطريقة محددة للغاية تشبه الخدمة.
لماذا يجب على صانعي السياسات أن يأخذوا علما
ومع ذلك ، مع اقتراب موعد الانتخابات الأمريكية ، من المهم النظر فيما إذا كان بإمكان البشر التمييز بين إنسان آخر والذكاء الاصطناعي.
قال ميرون: “سيكون هناك دائمًا ممثلون سيئون ، لكن ما أعتقد أنه يمكن أن يساعدنا في منع ذلك هو المعرفة”. “يجب أن يدرك الناس أن هذه التكنولوجيا أقوى مما جربوه من قبل.”
وأكد أن هذا لا يعني أن الناس بحاجة إلى الشك على الإنترنت بسبب الروبوتات. “إذا كان هجوم تصيد بشري ، أو إذا كان لدى شخص ما [convincing alternate] على الإنترنت ، هذا أمر خطير “.
وأضاف أن اللعبة لا تعالج مسألة الوعي. قال “هذا نقاش مختلف”.
لكنه قال إن صانعي السياسة يجب أن يأخذوا ذلك في الاعتبار.
قال: “نحتاج إلى التأكد من أنك إذا كنت شركة ولديك خدمة تستخدم وكيلًا للذكاء الاصطناعي ، فأنت بحاجة إلى توضيح ما إذا كان هذا بشريًا أم لا”. “ستساعد هذه اللعبة الناس على فهم أن هذه مناقشة يحتاجون إلى إجرائها ، لأنه بحلول نهاية عام 2023 يمكنك افتراض أن أي منتج يمكن أن يكون لديه هذا النوع من قدرات الذكاء الاصطناعي.”
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.