انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر
أعرب كيونغ هيون تشو ، الباحث البارز في مجال الذكاء الاصطناعي والأستاذ المساعد في جامعة نيويورك ، عن إحباطه من الخطاب الحالي حول مخاطر الذكاء الاصطناعي. في حين حذر شخصيات بارزة مثل جيفري هينتون ويوشوا بنجيو مؤخرًا من التهديدات الوجودية المحتملة من التطوير المستقبلي للذكاء الاصطناعي العام (AGI) ودعوا إلى تنظيم أو وقف البحث ، يعتقد تشو أن هذه الروايات “القاتلة” تصرف الانتباه عن القضايا الحقيقية ، كل من الإيجابية والسلبية ، التي يطرحها الذكاء الاصطناعي اليوم.
في مقابلة حديثة مع VentureBeat ، أعرب Cho – الذي يحظى بتقدير كبير لعمله التأسيسي في الترجمة الآلية العصبية ، والتي ساعدت في تطوير بنية Transformer التي تستند إليها ChatGPT – عن خيبة أمله بشأن عدم وجود مقترحات ملموسة في مجلس الشيوخ الأخير جلسات الاستماع المتعلقة بتنظيم الأضرار الحالية للذكاء الاصطناعي ، فضلاً عن عدم وجود مناقشة حول كيفية تعزيز الاستخدامات المفيدة للذكاء الاصطناعي.
على الرغم من أنه يحترم باحثين مثل هينتون ومشرفه السابق بنجيو ، فقد حذر تشو أيضًا من تمجيد “العلماء الأبطال” أو اعتبار تحذيرات أي شخص بمثابة إنجيل ، وعرض مخاوفه بشأن حركة الإيثار الفعال التي تمول العديد من جهود الذكاء الاصطناعي العام. (ملاحظة المحرر: تم تحرير هذه المقابلة من أجل الطول والوضوح).
VentureBeat: لقد أعربت مؤخرًا عن خيبة أملك بشأن جلسات الاستماع الأخيرة لمجلس الشيوخ حول الذكاء الاصطناعي على Twitter. هل يمكنك توضيح ذلك ومشاركة أفكارك حول “بيان مخاطر الذكاء الاصطناعي” الذي وقعه جيفري هينتون ويوشوا بنجيو وآخرين؟
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
كيونغيون تشو: بادئ ذي بدء ، أعتقد أن هناك عددًا كبيرًا جدًا من الأحرف. بشكل عام ، لم أوقع على أي من هذه الالتماسات. أميل دائمًا لأن أكون أكثر حرصًا عندما أوقع باسمي على شيء ما. لا أعرف لماذا يوقع الناس على أسمائهم باستخفاف.
فيما يتعلق بجلسات مجلس الشيوخ ، قرأت النص بالكامل وشعرت بالحزن قليلاً. من الواضح جدًا أن الأسلحة النووية ، وتغير المناخ ، والذكاء الاصطناعي المارق المحتمل ، يمكن أن تكون بالطبع خطيرة. ولكن هناك العديد من الأضرار الأخرى التي يتسبب بها الذكاء الاصطناعي بالفعل ، بالإضافة إلى الفوائد الفورية التي نراها من الذكاء الاصطناعي ، ومع ذلك لم يكن هناك اقتراح أو مناقشة محتملة واحدة حول ما يمكننا فعله بشأن الفوائد الفورية بالإضافة إلى الأضرار المباشرة. الذكاء الاصطناعي.
على سبيل المثال ، أعتقد أن ليندسي جراهام أشارت إلى الاستخدام العسكري للذكاء الاصطناعي. هذا يحدث بالفعل الآن. لكن سام التمان لم يستطع حتى تقديم اقتراح واحد حول كيفية تنظيم الاستخدام العسكري الفوري للذكاء الاصطناعي. في الوقت نفسه ، يتمتع الذكاء الاصطناعي بإمكانية تحسين الرعاية الصحية حتى نتمكن من تنفيذ نظام رعاية صحية أفضل وأكثر إنصافًا ، ولكن لم تتم مناقشة أي من ذلك في الواقع.
أشعر بخيبة أمل بسبب الكثير من هذه المناقشة حول المخاطر الوجودية ؛ الآن يسمونه حرفيا “الانقراض”. إنه يمتص الهواء من الغرفة.
VB: لماذا تعتقد ذلك؟ لماذا تمتص مناقشة “الخطر الوجودي” الهواء خارج الغرفة على حساب المزيد من الأضرار والفوائد الفورية؟
كيونغيون تشو: بمعنى ما ، إنها قصة رائعة. أن نظام الذكاء الاصطناعي العام الذي أنشأناه يتضح أنه جيد مثلنا ، أو أفضل منا. هذا هو بالضبط السحر الذي كانت تتمتع به البشرية دائمًا منذ البداية. حصان طروادة [that appears harmless but is malicious] – هذه قصة مشابهة ، أليس كذلك؟ يتعلق الأمر بالمبالغة في جوانب مختلفة عنا ولكنها ذكية مثلنا.
من وجهة نظري ، من الجيد أن يكون عامة الناس مفتونين ومتحمسين للتقدم العلمي الذي نحققه. الشيء المؤسف هو أن العلماء وصانعي السياسات ، الأشخاص الذين يتخذون القرارات أو يصنعون هذه التطورات ، هم إما متحمسون بشكل إيجابي أو سلبي لمثل هذه التطورات ، ولا ينتقدونها. وظيفتنا كعلماء ، وكذلك صناع السياسات ، هي أن نكون نقديين بشأن العديد من هذه التطورات الواضحة التي قد يكون لها آثار إيجابية وكذلك سلبية على المجتمع. لكن في الوقت الحالي ، الذكاء الاصطناعي العام هو نوع من العصا السحرية التي يحاولون فقط التأرجح بها لإبهار الناس حتى يفشل الناس في انتقاد ما يجري.
VB: ولكن ماذا عن رواد التعلم الآلي الذين يشكلون جزءًا من ذلك؟ وقع جيفري هينتون ويوشوا بنجيو ، على سبيل المثال ، “بيان بشأن مخاطر الذكاء الاصطناعي”. قال بنجيو إنه يشعر “بالضياع” وأنه يأسف إلى حد ما على عمله في الحياة. ماذا تقول في ذلك؟
كيونغيون تشو: لدي احترام كبير لكل من يوشوا وجيف وكذلك يان [LeCun]، أعرفهم جميعًا جيدًا ودرست تحتهم ، عملت معهم. لكن كيف أرى هذا هو: بالطبع يمكن للأفراد – العلماء أم لا – أن يكون لديهم تقييمهم الخاص لأنواع الأشياء التي من المرجح أن تحدث ، وأنواع الأشياء الأقل احتمالية للوقوع ، وأنواع الأشياء الأكثر تدميراً من غيرها. . إن اختيار التوزيع حول ما سيحدث في المستقبل ، واختيار وظيفة المنفعة المرتبطة بكل حدث من تلك الأحداث ، ليست مثل العلوم الصعبة ؛ هناك دائما ذاتية هناك. هذا جيد تمامًا.
لكن ما أعتبره جانبًا إشكاليًا حقًا [the repeated emphasis on] يوشوا وجيف … خاصة في وسائل الإعلام هذه الأيام ، هو أن هذا مثال نموذجي لنوع من البطولة في العلم. هذا هو بالضبط عكس ما حدث بالفعل في العلوم ، وخاصة التعلم الآلي.
لم يكن هناك أبدًا عالم واحد بقي في مختبره وبعد 20 عامًا خرج قائلاً “هنا AGI”. لقد كان دائمًا مسعى جماعي من قبل الآلاف ، إن لم يكن مئات الآلاف من الأشخاص في جميع أنحاء العالم ، على مر العقود.
ولكن الآن عادت قصة العالم البطل مرة أخرى. هناك سبب لماذا في هذه الرسائل يضعون دائمًا جيف ويوشوا في القمة. أعتقد أن هذا ضار حقًا بطريقة لم أفكر فيها أبدًا. كلما اعتاد الناس التحدث عن مشكلاتهم مع هذا النوع من سرد بطل العالم ، كنت مثل ، “حسنًا ، إنها قصة ممتعة. ولم لا؟”
لكن بالنظر إلى ما يحدث الآن ، أعتقد أننا نرى الجانب السلبي للعالم البطل. كلهم مجرد أفراد. يمكن أن يكون لديهم أفكار مختلفة. بالطبع ، أنا أحترمهم وأعتقد أن هذه هي الطريقة التي يعمل بها المجتمع العلمي دائمًا. لدينا دائما آراء مخالفة. لكن الآن عبادة البطل هذه ، جنبًا إلى جنب مع عقيدة الذكاء الاصطناعي العام هذه … لا أعرف ، إنه الكثير بالنسبة لي لمتابعة.
VB: الشيء الآخر الذي يبدو غريبًا بالنسبة لي هو أن الكثير من هذه الالتماسات ، مثل بيان مخاطر الذكاء الاصطناعي ، يتم تمويلها من وراء الكواليس من قبل أشخاص فعالين في الإيثار. [the Statement on AI Risk was released by the Center for AI Safety, which says it gets over 90% of its funding from Open Philanthropy, which in turn is primarily funded by Cari Tuna and Dustin Moskovitz, prominent donors in the Effective Altruism movement]. كيف تشعر حيال ذلك؟
كيونغيون تشو: أنا لست من محبي الإيثار الفعال (EA) بشكل عام. وأنا مدرك تمامًا لحقيقة أن حركة EA هي الحركة التي تقود كل شيء حول الذكاء الاصطناعي العام والمخاطر الوجودية. أعتقد أن هناك الكثير من الناس في وادي السيليكون لديهم هذا النوع من مجمع المنقذ. إنهم جميعًا يريدون إنقاذنا من الهلاك الحتمي الذي لا يراه غيرهم ويعتقدون أنهم وحدهم القادرون على حله.
على هذا المنوال ، أتفق مع ما قالته سارة هوكر من Cohere من منظمة العفو الدولية [in your article]. هؤلاء الأشخاص صاخبون ، لكنهم لا يزالون مجموعة هامشية داخل المجتمع بأسره ، ناهيك عن مجتمع التعلم الآلي بأكمله.
VB: إذن ما هو السرد المضاد لذلك؟ هل تكتب رسالتك الخاصة أو تصدر بيانك الخاص؟
كيونغيون تشو: هناك أشياء لا يمكنك كتابة خطاب عنها. سيكون من السخف أن تكتب رسالة تقول “لا توجد طريقة على الإطلاق لوجود ذكاء اصطناعي مارق من شأنه أن يحول الجميع إلى مشابك ورق.” سيكون الأمر مثل ، ماذا سنفعل؟
أنا معلم من حيث المهنة. أشعر أن الشيء المفقود في الوقت الحالي هو التعرض للأشياء الصغيرة التي يتم القيام بها حتى يكون الذكاء الاصطناعي مفيدًا للبشرية ، حيث يتم تحقيق المكاسب الصغيرة. نحن بحاجة إلى كشف الجمهور أمام هذا التدفق الضئيل ، ولكن المؤكد ، من النجاحات التي يتم تحقيقها هنا.
لأنه في الوقت الحالي ، للأسف ، تتم قراءة القصص المثيرة أكثر. الفكرة هي إما أن الذكاء الاصطناعي سيقتلنا جميعًا أو أن الذكاء الاصطناعي سيعالج كل شيء – كلاهما غير صحيح. وربما لا يكون دور الإعلام حتى [to address this]. في الواقع ، ربما يكون دور تعليم الذكاء الاصطناعي – دعنا نقول K-12 – هو تقديم مفاهيم أساسية ليست معقدة في الواقع.
VB: إذا كنت تتحدث إلى زملائك من الباحثين في مجال الذكاء الاصطناعي ، فماذا تعتقد أنك تعتقد فيما يتعلق بمخاطر الذكاء الاصطناعي؟ هل ستركز على المخاطر الحالية ، كما وصفتها؟ هل تضيف شيئًا حول كيفية تطور ذلك؟
كيونغيون تشو: لا أخبر الناس حقًا عن تصوري لمخاطر الذكاء الاصطناعي ، لأنني أعرف أنني مجرد فرد واحد. سلطتي ليست جيدة المعايرة. أعلم ذلك لأنني باحث ، لذلك أميل إلى توخي الحذر الشديد في الحديث عن الأشياء التي بها عدم يقين خاطئ للغاية ، خاصة إذا كان الأمر يتعلق بنوع من التنبؤ.
ما أقوله لباحثي الذكاء الاصطناعي – ليس كبار السن ، فهم يعرفون أفضل – ولكن لطلابي ، أو المزيد من الباحثين المبتدئين ، أبذل قصارى جهدي لإظهار ما أعمل عليه ، وما أعتقد أنه يجب علينا العمل عليه لمنحنا إياه فوائد صغيرة لكنها ملموسة. هذا هو سبب عملي في الذكاء الاصطناعي للرعاية الصحية والعلوم. لهذا السبب أقضي 50٪ من وقتي في [biotechnology company] Genentech ، جزء من فريق Prescient Design للقيام بالأجسام المضادة الحاسوبية وتصميم الأدوية. أعتقد أن هذا هو أفضل ما يمكنني فعله. لن أكتب خطابًا كبيرًا. أنا سيء جدًا في ذلك.
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.