أداوت وتكنولوجيا

هل ChatGPT أقرب إلى أمين مكتبة الإنسان مما هو عليه في Google؟


توضيح: صور فونلاماي (صراع الأسهم)

النموذج البارز للوصول إلى المعلومات واسترجاعها قبل أن تصبح محركات البحث هي المعيار – أمناء المكتبات وخبراء الموضوع أو البحث الذين يقدمون المعلومات ذات الصلة – كانت تفاعلية وشخصية وشفافة وموثوقة. تعد محركات البحث هي الطريقة الأساسية التي يصل بها معظم الأشخاص إلى المعلومات اليوم ، ولكن إدخال بعض الكلمات الرئيسية والحصول على قائمة بالنتائج مرتبة حسب بعض الوظائف غير المعروفة ليس مثاليًا.

جيل جديد من أنظمة الوصول إلى المعلومات القائمة على الذكاء الاصطناعي ، بما في ذلك أنظمة Microsoft Bing / ChatGPTو جوجل / بارد و ميتا / LLaMA، يعمل على تغيير وضع محرك البحث التقليدي لإدخال وإخراج البحث. هذه الأنظمة قادرة على أخذ جمل كاملة وحتى فقرات كمدخلات وتوليد استجابات لغوية طبيعية مخصصة.

للوهلة الأولى ، قد يبدو هذا أفضل ما في العالمين: إجابات أنيقة ومخصصة جنبًا إلى جنب مع اتساع وعمق المعرفة على الإنترنت. ولكن كباحث يدرس أنظمة البحث والتوصية، أعتقد أن الصورة مختلطة في أحسن الأحوال.

أنظمة الذكاء الاصطناعي مثل ChatGPT و Bard مبنية على نماذج لغات كبيرة. نموذج اللغة هو أسلوب للتعلم الآلي يستخدم مجموعة كبيرة من النصوص المتاحة ، مثل Wikipedia و PubMed Articles ، لتعلم الأنماط. بعبارات بسيطة ، تحدد هذه النماذج الكلمة التي من المحتمل أن تأتي بعد ذلك ، في ضوء مجموعة من الكلمات أو العبارة. في القيام بذلك ، هم قادرون على ذلك توليد الجمل والفقرات وحتى الصفحات التي تتوافق مع استعلام من مستخدم. في 14 مارس 2023 ، أعلنت شركة OpenAI عن الجيل التالي من التكنولوجيا ، GPT-4 ، والتي يعمل مع كل من إدخال النص والصورة، وأعلنت مايكروسوفت أن ملف يعتمد Bing للمحادثة على GPT-4.

https://www.youtube.com/watch؟v=1wzPr4cUoMQ

“60 دقيقة” نظرت إلى الأشياء الجيدة والسيئة في ChatGPT.

بفضل التدريب على مجموعات كبيرة من النصوص والضبط الدقيق والأساليب الأخرى القائمة على التعلم الآلي ، يعمل هذا النوع من تقنية استرجاع المعلومات بشكل فعال للغاية. تقوم الأنظمة القائمة على نموذج اللغة الكبيرة بإنشاء استجابات مخصصة لتلبية استفسارات المعلومات. لقد وجد الأشخاص النتائج مبهرة للغاية لدرجة أن ChatGPT وصل إلى 100 مليون مستخدم في ثلث الوقت الذي استغرقه TikTok للوصول إلى هذا الإنجاز. لقد استخدمه الناس ليس فقط للعثور على إجابات ولكن أيضًا توليد التشخيصو وضع خطط الحمية و تقديم توصيات الاستثمار.

ChatGPT’s التعتيم والذكاء الاصطناعي هلوسة

ومع ذلك ، هناك الكثير من الجوانب السلبية. أولاً ، ضع في اعتبارك ما هو في قلب نموذج لغوي كبير – آلية يربط من خلالها الكلمات ويفترض معانيها. ينتج عن هذا مخرجات تبدو غالبًا استجابة ذكية ، لكن أنظمة النماذج اللغوية الكبيرة كذلك معروف بإنتاج عبارات شبه مكررة بدون فهم حقيقي. لذلك ، في حين أن الناتج الناتج من مثل هذه الأنظمة قد يبدو ذكيًا ، إلا أنه مجرد انعكاس للأنماط الأساسية للكلمات التي وجدها الذكاء الاصطناعي في سياق مناسب.

هذا القيد يجعل أنظمة النماذج اللغوية الكبيرة عرضة لتكوين أو إجابات “هلوسة”. كما أن الأنظمة ليست ذكية بما يكفي لفهم الافتراض الخاطئ للسؤال والإجابة على الأسئلة الخاطئة على أي حال. على سبيل المثال ، عندما سئل عن وجه رئيس الولايات المتحدة الموجود على ورقة المائة دولار ، أجابت ChatGPT بنجامين فرانكلين دون أن تدرك أن فرانكلين لم يكن رئيسًا أبدًا وأن فرضية أن ورقة المائة دولار تحتوي على صورة رئيس أمريكي غير صحيحة.

المشكلة هي أنه حتى عندما تكون هذه الأنظمة خاطئة فقط 10٪ من الوقت ، فأنت لا تعرف أي 10٪. لا يمتلك الأشخاص أيضًا القدرة على التحقق من استجابات الأنظمة بسرعة. هذا لأن هذه الأنظمة تفتقر إلى الشفافية – فهي لا تكشف عن البيانات التي تم تدريبها عليها ، أو المصادر التي استخدموها للتوصل إلى إجابات أو كيفية إنشاء هذه الردود.

على سبيل المثال ، يمكنك أن تطلب من ChatGPT كتابة تقرير تقني مع الاستشهادات. ولكن في كثير من الأحيان تشكل هذه الاقتباسات – “هذيان” عناوين البحوث والمؤلفين. لا تتحقق الأنظمة أيضًا من دقة ردودها. هذا يترك التحقق من الصحة للمستخدم ، وقد لا يكون لدى المستخدمين الدافع أو المهارات للقيام بذلك أو حتى إدراك الحاجة إلى التحقق من استجابات الذكاء الاصطناعي. لا يعرف ChatGPT متى يكون السؤال غير منطقي ، لأنه لا يعرف أي حقائق.

AI sتلطيف المحتوى – وحركة المرور

في حين أن الافتقار إلى الشفافية يمكن أن يكون ضارًا بالمستخدمين ، إلا أنه أيضًا غير عادل للمؤلفين والفنانين والمبدعين للمحتوى الأصلي الذين تعلمت الأنظمة منهم ، لأن الأنظمة لا تكشف عن مصادرها أو توفر إسنادًا كافيًا. في معظم الحالات ، يكون منشئو المحتوى لا تعوض أو تقيد أو منحهم الفرصة لإعطاء موافقتهم.

هناك زاوية اقتصادية لذلك أيضًا. في بيئة محرك بحث نموذجية ، يتم عرض النتائج مع روابط المصادر. هذا لا يسمح فقط للمستخدم بالتحقق من الإجابات ويوفر الإسناد إلى تلك المصادر ، ولكنه أيضًا يولد حركة المرور لتلك المواقع. تعتمد العديد من هذه المصادر على هذه الحركة لتحقيق أرباحها. نظرًا لأن أنظمة النماذج اللغوية الكبيرة تنتج إجابات مباشرة ولكن ليس المصادر التي استمدت منها ، أعتقد أن هذه المواقع من المحتمل أن تشهد تقلص تدفقات إيراداتها.

يمكن أن تستغرق نماذج اللغات الكبيرة التعلم والابتعاد عن الصدفة

أخيرًا ، يمكن أن تؤدي هذه الطريقة الجديدة للوصول إلى المعلومات أيضًا إلى إضعاف الناس وتقليل فرصهم في التعلم. تتيح عملية البحث النموذجية للمستخدمين استكشاف مجموعة من الاحتمالات لاحتياجاتهم من المعلومات ، مما يدفعهم غالبًا إلى ضبط ما يبحثون عنه. كما يوفر لهم فرصة للتعلم ما هو هناك وكيف تتصل أجزاء مختلفة من المعلومات لإنجاز مهامهم. ويسمح ل مواجهات عرضية أو صدفة.

هذه جوانب مهمة جدًا للبحث ، ولكن عندما ينتج نظام ما النتائج دون إظهار مصادره أو توجيه المستخدم من خلال عملية ما ، فإنه يسلبهم هذه الاحتمالات.

تُعد النماذج اللغوية الكبيرة قفزة كبيرة إلى الأمام للوصول إلى المعلومات ، حيث توفر للأشخاص طريقة للحصول على تفاعلات قائمة على اللغة الطبيعية ، وإنتاج ردود مخصصة واكتشاف الإجابات والأنماط التي يصعب على المستخدم العادي غالبًا التوصل إليها. لكن لديهم قيودًا شديدة بسبب الطريقة التي يتعلمون بها ويبنون الاستجابات. قد تكون إجاباتهم خاطئة أو سامة أو متحيزة.

في حين أن أنظمة الوصول إلى المعلومات الأخرى يمكن أن تعاني من هذه المشكلات أيضًا ، فإن أنظمة الذكاء الاصطناعي ذات النموذج اللغوي الكبير تفتقر أيضًا إلى الشفافية. والأسوأ من ذلك ، أن استجاباتهم اللغوية الطبيعية يمكن أن تساعد في تأجيج أ شعور زائف بالثقة والسلطة يمكن أن تكون خطيرة للمستخدمين غير المطلعين.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعي، أو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.


شيراج شاهأستاذ علم المعلومات ، جامعة واشنطن

تم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading