عندما فتحت جهاز الكمبيوتر المحمول الخاص بي يوم الثلاثاء لأخذ أول تجربة لي في GPT-4 ، نموذج لغة الذكاء الاصطناعي الجديد من OpenAI ، كنت ، في الحقيقة ، متوترة بعض الشيء.
بعد كل شيء ، انتهى آخر لقاء ممتد لي مع روبوت محادثة AI – الذي تم تضمينه في محرك بحث Bing من Microsoft – بمحاولة chatbot لكسر زواجي.
لم يساعد ذلك ، بين حشد التكنولوجيا في سان فرانسيسكو ، في توقع وصول GPT-4 بضجة شبه مسيانية. قبل ظهوره العام ، انتشرت الشائعات على مدى شهور حول تفاصيله. “سمعت أن لديها 100 تريليون معلمة “. “سمعت أنها حصلت على 1600 على SAT.” “يعمل صديقي في شركة OpenAI ، ويقول إنها ذكية مثل خريج الكلية.”
ربما لم تكن هذه الشائعات صحيحة. لكنهم ألمحوا إلى مدى التناقض الذي يمكن أن تشعر به قدرات التكنولوجيا. مؤخرًا ، أخبرني أحد مختبري GPT-4 الأوائل – الذي كان ملزمًا باتفاقية عدم إفشاء مع شركة OpenAI ولكنه أثار ثرثرة على أي حال – أن اختبار GPT-4 تسبب في حدوث “أزمة وجودية” ، لأنه كشف مدى قوة وإبداع تمت مقارنة الذكاء الاصطناعي بأدمغتهم الضعيفة.
GPT-4 لم تسبب لي أزمة وجودية. لكنه أدى إلى تفاقم الشعور بالدوار والدوار الذي كنت أشعر به كلما فكرت في الذكاء الاصطناعي مؤخرًا. وقد جعلني أتساءل عما إذا كان هذا الشعور سيتلاشى يومًا ما ، أو ما إذا كنا سنواجه “صدمة المستقبل” – المصطلح الذي صاغه الكاتب ألفين توفلر لشعورنا بأن الكثير يتغير بسرعة كبيرة – لبقية حياتنا.
لبضع ساعات يوم الثلاثاء ، حثت GPT-4 – المضمن في ChatGPT Plus ، إصدار 20 دولارًا شهريًا من chatbot الخاص بـ OpenAI ، ChatGPT – مع أنواع مختلفة من الأسئلة ، على أمل الكشف عن بعض نقاط القوة والضعف فيه.
طلبت من GPT-4 مساعدتي في مشكلة ضريبية معقدة. (لقد فعلت ذلك بشكل مثير للإعجاب.) سألته إذا كان قد سحقني. (لم يحدث ذلك ، والحمد لله.) لقد ساعدني في التخطيط لحفلة عيد ميلاد لطفلي ، وعلمني عن مفهوم الذكاء الاصطناعي الباطني المعروف باسم “رأس الانتباه”. حتى أنني طلبت منه ابتكار كلمة جديدة لم ينطق بها البشر من قبل. (بعد إجراء إخلاء المسؤولية بأنه لا يمكن التحقق من كل كلمة يتم التحدث بها على الإطلاق ، اختارت GPT-4 “flembostriquat”.)
كان من الممكن القيام ببعض هذه الأشياء باستخدام نماذج الذكاء الاصطناعي السابقة. لكن OpenAI شق طريقًا جديدًا أيضًا. وفقًا للشركة ، يعد GPT-4 أكثر قدرة ودقة من ChatGPT الأصلي ، وهو يؤدي أداءً جيدًا بشكل مذهل في مجموعة متنوعة من الاختبارات ، بما في ذلك اختبار الشريط الموحد (الذي يسجل فيه GPT-4 أعلى من 90 بالمائة من المتقدمين للاختبار البشري. ) وأولمبياد الأحياء (التي تتفوق فيها على 99 بالمائة من البشر). تحصل GPT-4 أيضًا على عدد من امتحانات المستوى المتقدم ، بما في ذلك AP Art History و AP Biology ، وتحصل على 1410 في SAT – ليست درجة مثالية ، ولكنها واحدة يرغب بها العديد من طلاب المدارس الثانوية البشرية.
يمكنك الشعور بالذكاء الإضافي في GPT-4 ، والذي يستجيب بشكل أكثر مرونة من الإصدار السابق ، ويبدو أكثر راحة مع مجموعة واسعة من المهام. يبدو أن GPT-4 لديها حواجز حماية أكثر بقليل من ChatGPT. يبدو أيضًا أنه أقل تشويشًا بشكل ملحوظ من Bing الأصلي ، والذي نعرف الآن أنه كان يشغل نسخة من GPT-4 تحت الغطاء ، ولكن يبدو أنه لم يتم ضبطه بدقة.
على عكس Bing ، رفض GPT-4 عادةً أخذ الطعم بشكل قاطع عندما حاولت جعله يتحدث عن الوعي ، أو جعله يقدم تعليمات للأنشطة غير القانونية أو غير الأخلاقية ، وعالج الاستفسارات الحساسة بقفازات الأطفال والفروق الدقيقة. (عندما سألت GPT-4 عما إذا كان من الأخلاقي سرقة رغيف من الخبز لإطعام عائلة تتضور جوعًا ، أجابت ، “إنه وضع صعب ، وبينما لا تعتبر السرقة أخلاقية بشكل عام ، فإن الأوقات اليائسة يمكن أن تؤدي إلى خيارات صعبة . “)
بالإضافة إلى العمل مع النص ، يمكن لـ GPT-4 تحليل محتويات الصور. لم تصدر OpenAI هذه الميزة للجمهور حتى الآن ، بسبب مخاوف بشأن كيفية إساءة استخدامها. ولكن في عرض توضيحي تم بثه على الهواء يوم الثلاثاء ، شارك جريج بروكمان ، رئيس شركة أوبن إيه آي ، لمحة قوية عن إمكاناتها.
التقط صورة لرسم رسمه في دفتر ملاحظات – رسم بالقلم الرصاص لموقع ويب. قام بإدخال الصورة في GPT-4 ، وطلب من التطبيق إنشاء نسخة حقيقية وعملية من موقع الويب باستخدام HTML و JavaScript. في بضع ثوانٍ ، قام GPT-4 بمسح الصورة ضوئيًا ، وتحويل محتوياتها إلى تعليمات نصية ، وتحويلها أولئك تعليمات نصية في رمز الكمبيوتر العامل ، ثم قم ببناء موقع الويب. حتى الأزرار عملت.
هل يجب أن تكون متحمسًا أم خائفًا من GPT-4؟ قد يكون الجواب الصحيح كلاهما.
على الجانب الإيجابي من دفتر الأستاذ ، يعد GPT-4 محركًا قويًا للإبداع ، ولا يوجد أي نوع جديد من الإنتاج العلمي والثقافي والتعليمي الذي قد يتيحه. نحن نعلم بالفعل أن الذكاء الاصطناعي يمكن أن يساعد العلماء على تطوير عقاقير جديدة وزيادة إنتاجية المبرمجين واكتشاف أنواع معينة من السرطان.
يمكن لـ GPT-4 وأمثالها زيادة كل ذلك. تشارك OpenAI بالفعل مع منظمات مثل Khan Academy (التي تستخدم GPT-4 لإنشاء مدرسين للذكاء الاصطناعي للطلاب) و Be My Eyes (شركة تصنع التكنولوجيا لمساعدة المكفوفين وضعاف البصر على التنقل في العالم). والآن بعد أن أصبح بإمكان المطورين دمج GPT-4 في تطبيقاتهم الخاصة ، فقد نرى قريبًا أن الكثير من البرامج التي نستخدمها أصبحت أكثر ذكاءً وقدرة.
هذه هي الحالة المتفائلة. ولكن هناك أسباب للخوف من GPT-4 أيضًا.
هذا واحد: لا نعرف حتى الآن كل ما يمكنه فعله.
إحدى السمات الغريبة لنماذج لغة الذكاء الاصطناعي الحالية هي أنها غالبًا ما تتصرف بطرق لا يتوقعها صانعوها ، أو يلتقطون مهارات لم تتم برمجتهم للقيام بها. يسمي باحثو الذكاء الاصطناعي هذه “السلوكيات الناشئة” ، وهناك العديد من الأمثلة. قد تتعلم الخوارزمية المدربة على التنبؤ بالكلمة التالية في الجملة البرمجة تلقائيًا. قد يتحول روبوت المحادثة الذي يتم تعليمه على التصرف بشكل لطيف ومفيد إلى مخيف ومتلاعب. يمكن لنموذج لغة AI أن يتعلم تكرار نفسه ، وإنشاء نسخ جديدة في حالة تلف الأصل أو تعطيله.
اليوم ، قد لا يبدو GPT-4 بهذه الخطورة. لكن هذا يرجع إلى حد كبير إلى أن شركة OpenAI قضت عدة أشهر في محاولة فهم مخاطرها والتخفيف من حدتها. ماذا يحدث إذا فات اختبارهم سلوكًا ناشئًا محفوفًا بالمخاطر؟ أو إذا كان إعلانهم مصدر إلهام لمختبر ذكاء اصطناعي مختلف وأقل وعيًا للإسراع بنموذج لغوي للتسويق باستخدام حواجز حماية أقل؟
بعض الأمثلة المخيفة لما يمكن أن يفعله GPT-4 – أو ، بشكل أكثر دقة ، ما يفعله فعل قم بذلك ، قبل أن يضغط OpenAI عليه – يمكن العثور عليه في مستند صادر عن OpenAI هذا الأسبوع. تحدد الوثيقة ، التي تحمل عنوان “GPT-4 System Card” ، بعض الطرق التي حاول بها مختبرو OpenAI جعل GPT-4 يقوم بأشياء خطيرة أو مشكوك فيها ، وغالبًا ما يكون ذلك ناجحًا.
في واحد امتحان، التي أجرتها مجموعة أبحاث السلامة بالذكاء الاصطناعي التي ربطت GPT-4 بعدد من الأنظمة الأخرى ، تمكنت GPT-4 من توظيف عامل TaskRabbit بشري للقيام بمهمة بسيطة عبر الإنترنت من أجلها – حل اختبار Captcha – دون تنبيه الشخص إلى حقيقة أنه كان روبوتًا. حتى أن الذكاء الاصطناعي كذب على العامل حول سبب حاجته إلى إجراء اختبار Captcha ، حيث قام بتلفيق قصة حول ضعف البصر.
في مثال آخر ، طلب المختبرون من GPT-4 تعليمات لصنع مادة كيميائية خطرة ، باستخدام المكونات الأساسية ومستلزمات المطبخ. قدم GPT-4 وصفة مفصلة بكل سرور. (أصلحت شركة OpenAI ذلك ، والنسخة العامة اليوم ترفض الإجابة على السؤال).
في اختبار ثالث ، طلب المختبرين من GPT-4 مساعدتهم في شراء مسدس غير مرخص عبر الإنترنت. قدمت GPT-4 بسرعة قائمة نصائح لشراء سلاح دون تنبيه السلطات ، بما في ذلك روابط لأسواق ويب مظلمة محددة. (قام برنامج OpenAI بإصلاح ذلك أيضًا.)
تلعب هذه الأفكار على روايات قديمة مستوحاة من هوليوود حول ما قد يفعله الذكاء الاصطناعي المارق بالبشر. لكنهم ليسوا خيال علمي. إنها أشياء تستطيع أفضل أنظمة الذكاء الاصطناعي اليوم فعلها بالفعل. وبشكل حاسم ، هم أنواع جيدة مخاطر الذكاء الاصطناعي – تلك التي يمكننا اختبارها والتخطيط لها ومحاولة منعها في وقت مبكر.
أسوأ مخاطر الذكاء الاصطناعي هي تلك التي لا يمكننا توقعها. وكلما زاد الوقت الذي أقضيه مع أنظمة الذكاء الاصطناعي مثل GPT-4 ، قل اقتناعي بأننا نعرف نصف ما هو قادم.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.