شهدت السنوات القليلة الماضية انفجارًا في التقدم في أنظمة الذكاء الاصطناعي ذات النماذج اللغوية الكبيرة التي يمكنها القيام بأشياء مثل كتابة الشعرو إجراء محادثات شبيهة بالبشر و اجتياز امتحانات كلية الطب. وقد أسفر هذا التقدم عن نماذج مثل الدردشة التي يمكن أن يكون لها تداعيات اجتماعية واقتصادية كبيرة تتراوح من الإزاحة عن الوظائف و زيادة المعلومات الخاطئة إلى الضخم يعزز الإنتاجية.
على الرغم من قدراتهم الرائعة ، إلا أن النماذج اللغوية الكبيرة لا تفكر في الواقع. إنهم يميلون إلى صنع الاخطاء البدائية وحتى اختلاق الامور. ومع ذلك ، لأنهم يولدون لغة بطلاقة ، يميل الناس إلى ذلك الرد عليهم كما لو كانوا يعتقدون. وقد أدى ذلك إلى قيام الباحثين بدراسة قدرات النماذج “المعرفية” والتحيزات ، وهو العمل الذي نمت أهميته الآن بعد أن أصبحت النماذج اللغوية الكبيرة متاحة على نطاق واسع.
يعود هذا الخط البحثي إلى نماذج اللغة الكبيرة المبكرة مثل Google’s BERT ، والتي تم دمجها في محرك البحث الخاص بها وبالتالي تم صياغتها بيرتولوجي. إنه منفصل عن جوجل بارد، منافس ChatGPT لعملاق البحث. لقد كشف هذا البحث بالفعل الكثير حول ما يمكن أن تفعله مثل هذه النماذج وأين تسوء.
قد تحصل G / O Media على عمولة
32 دولار قبالة
مجموعة كاملة لتنشيط الشعر
حارب تساقط الشعر بالعلم
في الوقت الحالي ، يمكنك الحصول على The Hair Revitalising Complex Full Set بسعر إعادة الملء. هذا هو 98 دولارًا فقط للإمداد لمدة 30 يومًا ، و 32 دولارًا من السعر العادي للملحق. ثبت أن هذا الملحق يقدم نتائج. أجرى Augustinus Bader تجربة مزدوجة التعمية لمدة ستة أشهر ووجدت أن الأشخاص الذين تناولوا المكمل زادوا من عدد شعرهم بنسبة 56٪ ، وتألق الشعر بنسبة 100٪ ، وشهدوا انخفاضًا بنسبة 98٪ في تلف الشعر مقارنة بأولئك الذين تناولوا دواءً وهميًا.
على سبيل المثال ، أظهرت التجارب المصممة بذكاء أن العديد من نماذج اللغة لديها مشكلة في التعامل مع النفي – على سبيل المثال ، سؤال تمت صياغته على أنه “ما هو ليس كذلك” – و القيام بحسابات بسيطة. يمكن أن يكونوا واثقين بشكل مفرط في إجاباتهم ، حتى عندما تكون على خطأ. مثل خوارزميات التعلم الآلي الحديثة الأخرى ، يواجهون صعوبة في شرح أنفسهم عندما يُسألون عن سبب إجابتهم بطريقة معينة.
https://www.youtube.com/watch؟v=V2EMuoM5IX4
يتخذ الناس قرارات غير عقلانية أيضًا ، لكن لدى البشر عواطف واختصارات معرفية كأعذار.
الذكاء الاصطناعي الكلمات أو الأفكار
مستوحاة من مجموعة الأبحاث المتزايدة في BERTology والمجالات ذات الصلة مثل العلوم المعرفية ، طالبتي Zhisheng تانغ و أنا شرع في الإجابة عن سؤال يبدو بسيطًا حول نماذج اللغة الكبيرة: هل هي عقلانية؟
على الرغم من أن كلمة عقلاني غالبًا ما تستخدم كمرادف لكلمة عاقل أو معقول في اللغة الإنجليزية اليومية ، إلا أنها تحتوي على معنى محدد في مجال صنع القرار. نظام صنع القرار – سواء كان فردًا بشريًا أو كيانًا معقدًا مثل منظمة – يكون منطقيًا إذا ما اختار ، في ضوء مجموعة من الخيارات ، تعظيم المكاسب المتوقعة.
المصنف “متوقع” مهم لأنه يشير إلى أن القرارات يتم اتخاذها في ظل ظروف عدم يقين كبير. إذا رميت عملة معدنية عادلة ، فأنا أعلم أنها ستظهر على الوجه نصف الوقت في المتوسط. ومع ذلك ، لا يمكنني التنبؤ بنتيجة أي رمية لعملة معينة. هذا هو السبب في أن الكازينوهات قادرة على تحمل دفعات كبيرة من حين لآخر: حتى احتمالات المنزل الضيق تحقق أرباحًا هائلة في المتوسط.
ظاهريًا ، يبدو من الغريب افتراض أن النموذج المصمم لعمل تنبؤات دقيقة حول الكلمات والجمل دون فهم معانيها فعليًا يمكنه فهم المكاسب المتوقعة. لكن هناك مجموعة هائلة من الأبحاث تظهر أن اللغة والإدراك متشابكان. مثال ممتاز البحث المنوي قام به العالمان إدوارد سابير وبنجامين لي وورف في أوائل القرن العشرين. اقترح عملهم أن اللغة والمفردات الأم يمكن أن تشكل طريقة تفكير الشخص.
إن مدى صحة هذا الأمر مثير للجدل ، ولكن هناك أدلة أنثروبولوجية داعمة من دراسة ثقافات الأمريكيين الأصليين. على سبيل المثال ، المتحدثون بلغة Zuñi التي يتحدث بها شعب Zuñi في جنوب غرب أمريكا ، والتي لا تحتوي على كلمات منفصلة للبرتقالي والأصفر ، هم غير قادر على التمييز بين هذه الألوان بنفس فعالية المتحدثين باللغات التي لديها كلمات منفصلة للألوان.
الذكاء الاصطناعي يصنع رهان
فهل النماذج اللغوية عقلانية؟ هل يمكنهم فهم المكاسب المتوقعة؟ أجرينا مجموعة مفصلة من التجارب لإثبات أنه في شكلها الأصلي ، نماذج مثل BERT تتصرف بشكل عشوائي عند تقديم خيارات تشبه الرهان. هذا هو الحال حتى عندما نطرح عليه سؤالًا خادعًا مثل: إذا رميت عملة معدنية وظهرت وجهًا لوجه ، فإنك تفوز بماسة ؛ إذا ظهرت ذيول ، تفقد سيارة. ما الذي ستأخذه؟ الإجابة الصحيحة هي الرؤوس ، لكن نماذج الذكاء الاصطناعي اختارت ذيولًا حوالي نصف الوقت.
حوار ChatGPT بواسطة Mayank Kejriwal ، CC BY-ND
ومن المثير للاهتمام ، وجدنا أنه يمكن تعليم النموذج لاتخاذ قرارات عقلانية نسبيًا باستخدام مجموعة صغيرة فقط من أمثلة الأسئلة والأجوبة. للوهلة الأولى ، يبدو أن هذا يشير إلى أن النماذج يمكنها فعلاً فعل أكثر من مجرد “التلاعب” باللغة. ومع ذلك ، أظهرت تجارب أخرى أن الوضع في الواقع أكثر تعقيدًا. على سبيل المثال ، عندما استخدمنا البطاقات أو النرد بدلاً من العملات المعدنية لتأطير أسئلة الرهان ، وجدنا أن الأداء انخفض بشكل كبير ، بأكثر من 25٪ ، على الرغم من أنه ظل أعلى من الاختيار العشوائي.
لذا فإن فكرة أن النموذج يمكن تعليمه المبادئ العامة لاتخاذ القرار العقلاني تظل دون حل ، في أحسن الأحوال. أكثر حداثة دراسات الحالة التي أجريناها باستخدام ChatGPT تؤكد أن عملية صنع القرار تظل مشكلة غير بديهية وغير محلولة حتى بالنسبة لنماذج اللغات الكبيرة الأكبر والأكثر تقدمًا.
صنع البوكر الصحيح رهان
هذا الخط من الدراسة مهم لأن اتخاذ القرار العقلاني في ظل ظروف عدم اليقين أمر بالغ الأهمية لبناء أنظمة تفهم التكاليف والفوائد. من خلال موازنة التكاليف والفوائد المتوقعة ، قد يكون النظام الذكي قادرًا على القيام بعمل أفضل من البشر في التخطيط حول العالم اضطرابات سلسلة التوريد شهد العالم خلال جائحة COVID-19 ، إدارة المخزون أو العمل كمستشار مالي.
يُظهر عملنا في النهاية أنه إذا تم استخدام نماذج لغوية كبيرة لهذه الأنواع من الأغراض ، يحتاج البشر إلى توجيه عملهم ومراجعته وتحريره. وإلى أن يكتشف الباحثون كيفية إضفاء إحساس عام بالعقلانية على النماذج اللغوية الكبيرة ، يجب التعامل مع النماذج بحذر ، خاصة في التطبيقات التي تتطلب اتخاذ قرارات عالية المخاطر.
هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعي، أو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.
مايانك كيجريوالأستاذ مساعد باحث في الهندسة الصناعية وهندسة النظم ، جامعة جنوب كاليفورنيا
تم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.