أصدرت Microsoft إصدارًا جديدًا من محرك بحث Bing الخاص بها الأسبوع الماضي ، وعلى عكس محرك البحث العادي ، فإنها تشتمل على روبوت محادثة يمكنه الإجابة على الأسئلة بنثر واضح وموجز.
منذ ذلك الحين ، لاحظ الناس أن بعض ما يولده روبوت دردشة Bing غير دقيق ومضلل وغريب تمامًا ، مما أثار مخاوف من أنه أصبح واعيًا أو مدركًا للعالم من حوله.
هذا ليس هو الحال. ولفهم السبب ، من المهم معرفة كيفية عمل روبوتات المحادثة حقًا.
هل الشات بوت على قيد الحياة؟
لا ، دعنا نقول ذلك مرة أخرى: لا!
في يونيو ، ادعى Blake Lemoine ، مهندس Google ، أن تقنية chatbot المماثلة التي يتم اختبارها داخل Google كانت واعية. هذا خطأ. روبوتات المحادثة ليست واعية وليست ذكية – على الأقل ليس بالطريقة التي يتسم بها البشر بالذكاء.
لماذا تبدو حية إذن؟
لنعد إلى الوراء. يتم تشغيل روبوت دردشة Bing بواسطة نوع من الذكاء الاصطناعي يسمى الشبكة العصبية. قد يبدو هذا وكأنه دماغ محوسب ، لكن المصطلح مضلل.
الشبكة العصبية هي مجرد نظام رياضي يتعلم المهارات من خلال تحليل كميات هائلة من البيانات الرقمية. عندما تقوم شبكة عصبية بفحص الآلاف من صور القطط ، على سبيل المثال ، يمكنها تعلم التعرف على قطة.
يستخدم معظم الناس الشبكات العصبية كل يوم. إنها التكنولوجيا التي تحدد الأشخاص والحيوانات الأليفة والأشياء الأخرى في الصور المنشورة على خدمات الإنترنت مثل صور Google. يسمح لـ Siri و Alexa ، المساعدين الصوتيين الناطقين من Apple و Amazon ، بالتعرف على الكلمات التي تتحدثها. وهو ما يُترجم بين الإنجليزية والإسبانية في خدمات مثل ترجمة Google.
الشبكات العصبية جيدة جدًا في محاكاة طريقة استخدام البشر للغة. وهذا يمكن أن يضللنا للاعتقاد بأن التكنولوجيا أقوى مما هي عليه بالفعل.
كيف تحاكي الشبكات العصبية بالضبط لغة الإنسان؟
منذ حوالي خمس سنوات ، بدأ باحثون في شركات مثل Google و OpenAI ، وهي شركة ناشئة في سان فرانسيسكو أطلقت مؤخرًا برنامج الدردشة ChatGPT الشهير ، في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية ، بما في ذلك الكتب ومقالات ويكيبيديا وسجلات الدردشة وجميع أنواع أخرى من المواد المنشورة على الإنترنت.
تُعرف هذه الشبكات العصبية بنماذج اللغة الكبيرة. إنهم قادرون على استخدام أكوام البيانات هذه لبناء ما يمكن أن نطلق عليه خريطة رياضية للغة البشرية. باستخدام هذه الخريطة ، يمكن للشبكات العصبية القيام بالعديد من المهام المختلفة ، مثل كتابة التغريدات الخاصة بهم ، وتأليف الخطب ، وإنشاء برامج الكمبيوتر ، ونعم ، إجراء محادثة.
أثبتت هذه النماذج اللغوية الكبيرة فائدتها. تقدم Microsoft أداة ، Copilot ، مبنية على نموذج لغة كبير ويمكنها اقتراح السطر التالي من التعليمات البرمجية حيث يقوم مبرمجو الكمبيوتر ببناء تطبيقات البرامج ، بالطريقة التي تقترح بها أدوات الإكمال التلقائي الكلمة التالية أثناء كتابة النصوص أو رسائل البريد الإلكتروني.
تقدم الشركات الأخرى تقنية مماثلة يمكنها إنشاء مواد تسويقية ورسائل بريد إلكتروني ونصوص أخرى. يُعرف هذا النوع من التكنولوجيا أيضًا باسم الذكاء الاصطناعي التوليدي
تقوم الشركات الآن بطرح إصدارات من هذا يمكنك الدردشة معها؟
بالضبط. في نوفمبر ، أصدرت OpenAI ChatGPT ، وهي المرة الأولى التي يتذوق فيها الجمهور هذا الأمر. كان الناس مندهشين – وهم محقون في ذلك.
لا تدردش روبوتات المحادثة هذه تمامًا مثل الإنسان ، لكنها غالبًا ما تبدو كذلك. يمكنهم أيضًا كتابة أوراق الفصل الدراسي والشعر والتحدث عن أي موضوع يتم طرحه في طريقهم.
لماذا يخطئون في الأمور؟
لأنهم يتعلمون من الإنترنت. فكر في مقدار المعلومات الخاطئة والقمامة الأخرى الموجودة على الويب.
هذه الأنظمة أيضًا لا تكرر ما هو موجود على الإنترنت كلمة بكلمة. بالاعتماد على ما تعلموه ، فإنهم ينتجون نصًا جديدًا بأنفسهم ، فيما يسميه باحثو الذكاء الاصطناعي “الهلوسة”.
هذا هو السبب في أن روبوتات المحادثة قد تعطيك إجابات مختلفة إذا طرحت نفس السؤال مرتين. سيقولون أي شيء ، سواء كان على أساس الواقع أم لا.
إذا كانت روبوتات المحادثة “تهلوس” ، ألا يجعلها ذلك حساسة؟
يحب باحثو الذكاء الاصطناعي استخدام المصطلحات التي تجعل هذه الأنظمة تبدو بشرية. لكن الهلوسة هي مجرد مصطلح جذاب بمعنى “يختلقون الأشياء”.
هذا يبدو مخيفًا وخطيرًا ، لكن هذا لا يعني أن التكنولوجيا على قيد الحياة بطريقة ما أو على دراية بمحيطها. إنه مجرد إنشاء نص باستخدام الأنماط التي وجدها على الإنترنت. في كثير من الحالات ، تمزج الأنماط وتطابقها بطرق مفاجئة ومقلقة. لكنها لا تدرك ما تفعله. لا يمكن أن يفكر مثل البشر.
ألا تستطيع الشركات منع روبوتات المحادثة من التصرف بشكل غريب؟
انهم يحاولون.
باستخدام ChatGPT ، حاولت OpenAI التحكم في سلوك التكنولوجيا. عندما قامت مجموعة صغيرة من الأشخاص باختبار النظام بشكل خاص ، طلبت شركة OpenAI منهم تقييم استجاباتها. هل كانت مفيدة؟ هل كانوا صادقين؟ ثم استخدمت OpenAI هذه التصنيفات لصقل النظام وتحديد ما سيفعله وما لن يفعله بعناية أكبر.
لكن هذه التقنيات ليست مثالية. لا يعرف العلماء اليوم كيف يبنون أنظمة صادقة تمامًا. يمكنهم الحد من عدم الدقة والغرابة ، لكن لا يمكنهم إيقافها. تتمثل إحدى طرق كبح السلوكيات الغريبة في قصر الدردشات.
لكن روبوتات المحادثة ستظل تنشر أشياء غير صحيحة. ومع بدء الشركات الأخرى في نشر هذه الأنواع من الروبوتات ، لن يكون الجميع جيدًا في التحكم في ما يمكنهم وما لا يمكنهم فعله.
الخلاصة: لا تصدق كل ما يخبرك به روبوت المحادثة.