اخبار

يعارض جبابرة صناعة الذكاء الاصطناعي أندرو نغ ويان ليكون الدعوة إلى التوقف مؤقتًا عن أنظمة الذكاء الاصطناعي القوية


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


شخصيتان بارزتان في صناعة الذكاء الاصطناعي ، يان ليكون، وكبير علماء الذكاء الاصطناعي في Meta ، و أندرو نج، مؤسس Deeplearning.AI ، عارض التوقف المؤقت المقترح لتطوير أنظمة ذكاء اصطناعي قوية في مناقشة عبر الإنترنت يوم الجمعة.

تمت استضافة المناقشة ، التي تحمل عنوان “لماذا توقف الذكاء الاصطناعي لمدة 6 أشهر فكرة سيئة” ، على موقع YouTube واجتذبت آلاف المشاهدين.

خلال الحدث ، طعن LeCun و Ng في خطاب مفتوح تم توقيعه من قبل المئات من خبراء الذكاء الاصطناعي ورجال الأعمال والعلماء في مجال التكنولوجيا الشهر الماضي ، داعين إلى تعليق لمدة ستة أشهر على الأقل لتدريب أنظمة الذكاء الاصطناعي الأكثر تقدمًا من GPT-4 ، برنامج لتوليد النص يمكنه إنتاج ردود واقعية ومتماسكة على أي سؤال أو موضوع تقريبًا.

https://www.youtube.com/watch؟v=BY9KV8uCtj4

“لقد فكرنا بإسهاب في اقتراح التأجيل لمدة ستة أشهر وشعرنا أنه موضوع مهم بدرجة كافية – أعتقد أنه سيسبب ضررًا كبيرًا إذا نفذته الحكومة – شعرت أنا ويان أننا أردنا التحدث معك هنا حول قال السيد نج في كلمته الافتتاحية.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

أوضح نج أولًا أن مجال الذكاء الاصطناعي شهد تطورات ملحوظة في العقود الأخيرة ، خاصة في السنوات القليلة الماضية. مكنت تقنيات التعلم العميق من إنشاء أنظمة ذكاء اصطناعي توليدية يمكنها إنتاج نصوص وصور وأصوات واقعية ، مثل ChatGPT و LLaMa و Midjourney و Stable Diffusion و Dall-E. أثارت هذه الأنظمة الآمال في التطبيقات والإمكانيات الجديدة ، ولكنها أيضًا أثارت مخاوف بشأن أضرارها ومخاطرها المحتملة.

كانت بعض هذه المخاوف مرتبطة بالحاضر والمستقبل القريب ، مثل الإنصاف والتحيز والتشريد الاجتماعي والاقتصادي. كان البعض الآخر أكثر تخمينًا وبعيدًا ، مثل ظهور الذكاء الاصطناعي العام (AGI) وعواقبه الخبيثة المحتملة أو غير المقصودة.

قال LeCun في ملاحظاته الافتتاحية: “من المحتمل أن تكون هناك دوافع عديدة من مختلف الموقعين على تلك الرسالة”. “البعض منهم ، ربما من ناحية ، قلقون من تشغيل الذكاء الاصطناعي العام ومن ثم القضاء على الإنسانية في غضون مهلة قصيرة. أعتقد أن قلة من الناس يؤمنون حقًا بهذا النوع من السيناريوهات ، أو يعتقدون أنه تهديد محدد لا يمكن إيقافه “.

وتابع “ثم هناك أشخاص أكثر عقلانية ، ممن يعتقدون أن هناك خطرًا وضررًا محتملاً حقيقيًا يجب التعامل معه – وأنا أتفق معهم”. “هناك الكثير من المشكلات المتعلقة بجعل أنظمة الذكاء الاصطناعي قابلة للتحكم ، وجعلها واقعية ، إذا كان من المفترض أن توفر المعلومات ، وما إلى ذلك ، وجعلها غير سامة. هناك القليل من الافتقار إلى الخيال بمعنى أنه ليس مثل أنظمة الذكاء الاصطناعي المستقبلية التي سيتم تصميمها على نفس المخطط مثل LLMs الحالية ذات الانحدار التلقائي مثل ChatGPT و GPT-4 أو أنظمة أخرى قبلها مثل Galactica أو Bard أو أيًا كان. . أعتقد أنه ستكون هناك أفكار جديدة ستجعل هذه الأنظمة أكثر قابلية للتحكم “.

تزايد الجدل حول كيفية تنظيم الذكاء الاصطناعي

تم عقد الحدث عبر الإنترنت وسط نقاش متزايد حول كيفية تنظيم LLMs الجديدة التي يمكن أن تنتج نصوصًا واقعية حول أي موضوع تقريبًا. أثارت هذه النماذج ، التي تستند إلى التعلم العميق والمدرَّبة على كميات هائلة من البيانات عبر الإنترنت ، مخاوف بشأن احتمال إساءة استخدامها وإلحاق الضرر بها. تصاعد النقاش منذ ثلاثة أسابيع ، عندما أصدرت شركة OpenAI GPT-4 ، أحدث وأقوى طراز لها.

في مناقشتهما ، اتفق السيد Ng والسيد LeCun على أن بعض التنظيم ضروري ، ولكن ليس على حساب البحث والابتكار. وجادلوا بأن التوقف عن تطوير أو نشر هذه النماذج كان غير واقعي ويؤدي إلى نتائج عكسية. ودعوا أيضًا إلى مزيد من التعاون والشفافية بين الباحثين والحكومات والشركات لضمان الاستخدام الأخلاقي والمسؤول لهذه النماذج.

“أول رد فعل لي على [the letter] هو أن الدعوة إلى تأخير البحث والتطوير تجعلني أشبه بموجة جديدة من الظلامية “. لماذا يبطئ تقدم المعرفة والعلوم؟ ثم هناك مسألة المنتجات … أنا جميعًا أؤيد تنظيم المنتجات التي تقع في أيدي الناس. لا أرى فائدة من تنظيم البحث والتطوير. لا أعتقد أن هذا يخدم أي غرض بخلاف تقليل المعرفة التي يمكننا استخدامها لجعل التكنولوجيا أفضل وأكثر أمانًا “.

“في حين أن للذكاء الاصطناعي اليوم بعض مخاطر الضرر ، مثل التحيز والإنصاف وتركيز القوة – فهذه قضايا حقيقية – أعتقد أنها تخلق أيضًا قيمة هائلة. أعتقد أنه من خلال التعلم العميق على مدار السنوات العشر الماضية ، وحتى في العام الماضي أو نحو ذلك ، فإن عدد أفكار الذكاء الاصطناعي التوليدية وكيفية استخدامها في التعليم أو الرعاية الصحية ، أو التدريب سريع الاستجابة ، أمر مثير بشكل لا يصدق ، وقيمة الكثير من الناس تُنشئ لمساعدة الأشخاص الآخرين باستخدام الذكاء الاصطناعي. “

وأضاف: “أعتقد أنه أمر مذهل مثل GPT-4 اليوم ، فإن بنائه بشكل أفضل من GPT-4 سيساعد كل هذه التطبيقات ويساعد الكثير من الأشخاص”. “لذا فإن إيقاف هذا التقدم مؤقتًا يبدو أنه سيؤدي إلى الكثير من الضرر ويبطئ إنشاء أشياء قيّمة للغاية من شأنها أن تساعد الكثير من الناس.”

شاهد الفيديو كاملاً للمحادثة على موقع يوتيوب.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.




اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading