اخبار

ينضم مستشار Doomer AI إلى مختبر xAI الخاص بـ Musk ، وهو رابع أفضل معمل أبحاث يركز على نهاية العالم للذكاء الاصطناعي


توجه إلى مكتبتنا عند الطلب لعرض الجلسات من VB Transform 2023. سجل هنا


جلب إيلون ماسك دان هندريكس ، باحث التعلم الآلي الذي يعمل كمدير للمركز غير الربحي لسلامة الذكاء الاصطناعي ، كمستشار لشركته الجديدة ، xAI.

Hendrycks ، التي رعت منظمتها بيانًا حول مخاطر الذكاء الاصطناعي في مايو ، والذي تم توقيعه من قبل الرؤساء التنفيذيين لـ OpenAI و DeepMind و Anthropic ومئات من خبراء الذكاء الاصطناعي الآخرين ، تتلقى أكثر من 90 ٪ من تمويلها من قبل Open Philanthropy ، وهي منظمة غير ربحية يديرها زوجان بارزان (Dustin Moskovitz و Cari Tuna) في حركة الإيثار الفعال (EA) المثيرة للجدل. يعرّف مركز الإيثار الفعال EA بأنه “مشروع فكري يستخدم الأدلة والسبب لمعرفة كيفية إفادة الآخرين قدر الإمكان.” وفقًا للعديد من أتباع EA ، فإن الاهتمام الأكبر الذي يواجه البشرية يدور حول تجنب سيناريو كارثي حيث يقضي الذكاء الاصطناعي العام الذي أنشأه البشر على جنسنا البشري.

يعتبر تعيين ماسك لهندريكس أمرًا مهمًا لأنه أوضح علامة حتى الآن على أن أربعة من أشهر مختبرات أبحاث الذكاء الاصطناعي في العالم وتمويلها جيدًا – OpenAI و DeepMind و Anthropic والآن xAI – تجلب هذه الأنواع من المخاطر الوجودية ، أو المخاطر السينية ، الأفكار حول أنظمة الذكاء الاصطناعي إلى عامة الناس.

اشتكى العديد من خبراء الذكاء الاصطناعي من التركيز على المخاطر السينية

هذا هو الحال على الرغم من أن العديد من كبار الباحثين في مجال الذكاء الاصطناعي وعلماء الكمبيوتر لا يتفقون على أن هذه السردية “القاتلة” تستحق الكثير من الاهتمام.

حدث

VB Transform 2023 حسب الطلب

هل فاتتك جلسة من VB Transform 2023؟ سجل للوصول إلى المكتبة عند الطلب لجميع جلساتنا المميزة.

سجل الان

على سبيل المثال ، قالت سارة هوكر ، رئيسة Cohere للذكاء الاصطناعي ، لـ VentureBeat في مايو أن x-Risk “كان موضوع هامشي”. وقال مارك ريدل ، الأستاذ في معهد جورجيا للتكنولوجيا ، إن التهديدات الوجودية “غالبًا ما يتم الإبلاغ عنها كحقيقة” ، والتي أضافها “تقطع شوطًا طويلاً في التطبيع ، من خلال التكرار ، للاعتقاد بأن السيناريوهات التي تعرض الحضارة ككل للخطر وأن الأضرار الأخرى لا تحدث أو ليست لها عواقب”.

وافق الباحث في الذكاء الاصطناعي بجامعة نيويورك والبروفيسور Kyunghyun Cho على ذلك ، حيث أخبر VentureBeat في يونيو أنه يعتقد أن هذه “الروايات المشؤومة” تصرف الانتباه عن القضايا الحقيقية ، الإيجابية والسلبية ، التي يطرحها الذكاء الاصطناعي اليوم.

“أشعر بخيبة أمل بسبب الكثير من هذه المناقشة حول المخاطر الوجودية ؛ وقال إنهم يطلقون عليه الآن اسم “الانقراض”. “إنها تمتص الهواء من الغرفة.”

أشار خبراء آخرون في منظمة العفو الدولية أيضًا ، علنًا وسرا ، إلى أنهم قلقون من العلاقات المعترف بها علنًا للشركات بمجتمع EA – والتي تدعمها شخصيات تقنية مشوهة مثل Sam Bankman-Fried من FTX – بالإضافة إلى العديد من تسكريال حركات مثل طويلة الأمد وما بعد الإنسانية.

قال تشو لموقع VentureBeat: “إنني مدرك تمامًا لحقيقة أن حركة EA هي الحركة التي تقود كل شيء حول الذكاء الاصطناعي العام والمخاطر الوجودية”. “أعتقد أن هناك الكثير من الناس في وادي السيليكون مع هذا النوع من مجمع المنقذ. إنهم جميعًا يريدون إنقاذنا من الهلاك الحتمي الذي لا يراه غيرهم ويعتقدون أنهم وحدهم القادرون على حله “.

أشار Timnit Gebru ، في مقال Wired العام الماضي ، إلى أن SBF كان أحد أكبر ممولي EA حتى الإفلاس الأخير لمنصته للعملات المشفرة FTX. المليارديرات الآخرون الذين ساهموا بأموال كبيرة في EA وأسباب مخاطر X تشمل إيلون ماسك، فيتاليك بوتيرين ، بن ديلو ، جان تالين ، بيتر ثيل ، وداستن موسكوفيتز.

ونتيجة لذلك ، كتبت: “كل هذه الأموال شكلت مجال الذكاء الاصطناعي وأولوياته بطرق تضر بالأشخاص في الفئات المهمشة بينما تزعم العمل على” الذكاء الاصطناعي العام المفيد “الذي سيجلب المدينة الفاضلة التقنية للبشرية. هذا مثال آخر على كيف أن مستقبلنا التكنولوجي ليس مسيرة خطية نحو التقدم بل هو الذي يحدده أولئك الذين لديهم المال والتأثير للسيطرة عليه “.

فيما يلي ملخص لموقف هذه المجموعة الرباعية التقنية عندما يتعلق الأمر بالذكاء الاصطناعي العام ، والمخاطر السينية ، والإيثار الفعال:

xAI: “افهم الطبيعة الحقيقية للكون”

مهمة: هندسة الذكاء الاصطناعي العام “لفهم الكون”

ركز على الذكاء الاصطناعي العام والمخاطر السيئة: ورد أن Elon Musk ، الذي ساعد في تأسيس OpenAI في عام 2015 ، ترك الشركة الناشئة لأنه شعر أنها لا تفعل ما يكفي لتطوير الذكاء الاصطناعي العام بأمان. كما لعب دورًا رئيسيًا في إقناع قادة الذكاء الاصطناعي بالتوقيع على بيان Hendrycks بشأن مخاطر الذكاء الاصطناعي الذي ينص على أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.” قال إن ماسك طور برنامج xAI لأنه يعتقد أن الذكاء الاصطناعي العام الأكثر ذكاء سيكون أقل احتمالا لتدمير البشرية. قال في حديث حديث على Twitter Spaces ، “إن الطريقة الأكثر أمانًا لبناء ذكاء اصطناعي هي في الواقع إنشاء واحدة تتسم بالفضول إلى أقصى حد وتبحث عن الحقيقة”.

روابط للإيثار الفعال: ادعى المسك نفسه أن كتابات عن EA كتبها الفيلسوف ويليام ماكاسكيل عن EA ، “هو تطابق وثيق لفلسفتي. ” بالنسبة إلى Hendrycks ، وفقًا لمقابلة أجريت مؤخرًا في Boston Globe ، “يدعي أنه لم يكن أبدًا مناصراً لـ EA ، حتى لو تصدى للحركة” ، ويقول: “أمان الذكاء الاصطناعي هو نظام يمكنه ، ويفعل ، أن يقف بعيدًا عن الإيثار الفعال”. ومع ذلك ، يتلقى Hendrycks تمويلًا من Open Philanthropy وقال إنه أصبح مهتمًا بأمان الذكاء الاصطناعي بسبب مشاركته في 80،000 Hours ، وهو برنامج استكشاف مهني مرتبط بحركة EA.

أوبن إيه آي: “خلق ذكاء اصطناعي آمن يستفيد منه البشرية جمعاء”

مهمة: في عام 2015 ، تم تأسيس OpenAI بهدف “ضمان أن الذكاء الاصطناعي العام يفيد البشرية جمعاء”. ملاحظات موقع OpenAI على الويب: “سنحاول إنشاء AGI آمن ومفيد بشكل مباشر ، ولكننا سننظر أيضًا في أن مهمتنا قد أنجزت إذا كان عملنا يساعد الآخرين على تحقيق هذه النتيجة.”

ركز على الذكاء الاصطناعي العام والمخاطر السيئة: منذ تأسيسها ، لم تتراجع شركة OpenAI أبدًا عن مهمتها التي تركز على الذكاء الاصطناعي العام. وقد نشرت العديد من منشورات المدونات على مدار العام الماضي بعنوان “إدارة الذكاء الخارق” و “نهجنا في أمان الذكاء الاصطناعي” و “التخطيط للذكاء الاصطناعي العام وما بعده”. في وقت سابق من هذا الشهر ، أعلنت شركة OpenAI عن “فريق محاذاة فائق” جديد بهدف “حل التحديات التقنية الأساسية لمحاذاة الذكاء الفائق في أربع سنوات”. قالت الشركة إن المؤسس المشارك وكبير العلماء إيليا سوتسكيفر سيجعل هذا البحث محور تركيزه الأساسي ، وقالت الشركة إنها ستخصص 20٪ من مواردها الحاسوبية لفريق المحاذاة الفائق. أطلق عليه أحد أعضاء الفريق مؤخرًا اسم فريق “notkilleveryoneism”:

روابط للإيثار الفعال: في مارس 2017 ، تلقت OpenAI منحة قدرها 30 مليون دولار من Open Philanthropy. في عام 2020 ، ذكرت كارين هاو من MIT Technology Review أن “الشركة لديها ثقافة موحدة بشكل مثير للإعجاب. يعمل الموظفون لساعات طويلة ويتحدثون باستمرار عن وظائفهم من خلال وجبات الطعام والساعات الاجتماعية ؛ يذهب الكثيرون إلى نفس الأحزاب ويؤيدون الفلسفة العقلانية للإيثار الفعال “. في هذه الأيام ، يُقال إن رئيس المواءمة في الشركة ، جان لايكي ، الذي يقود فريق المحاذاة الفائقة ، يتطابق مع حركة EA. وبينما انتقد الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، شركة EA في الماضي ، لا سيما في أعقاب فضيحة Sam Bankman-Fried ، فقد أكمل دورة 80،000 ساعة ، التي أنشأها منشئ EA William MacAskill.

Google DeepMind: “حل الذكاء للنهوض بالعلم وإفادة البشرية”

مهمة: “لفتح إجابات لأكبر الأسئلة في العالم من خلال فهم الذكاء نفسه وإعادة تكوينه”.

ركز على الذكاء الاصطناعي العام والمخاطر السيئة: تأسست شركة DeepMind في عام 2010 على يد ديميس حسابيس وشين ليج ومصطفى سليمان ، وفي عام 2014 استحوذت Google على الشركة. في عام 2023 ، اندمجت DeepMind مع Google Brain لتشكيل Google DeepMind. تركز جهودها البحثية في مجال الذكاء الاصطناعي ، والتي غالبًا ما ركزت على التعلم المعزز من خلال تحديات اللعبة مثل برنامج AlphaGo ، دائمًا بشكل قوي على مستقبل الذكاء الاصطناعي العام: “من خلال البناء والتعاون مع AGI ، يجب أن نكون قادرين على اكتساب فهم أعمق لعالمنا ، مما يؤدي إلى تقدم كبير للإنسانية” ، كما جاء على موقع الشركة على الويب. في مقابلة أجريت مؤخرًا مع الرئيس التنفيذي لشركة Hassabis in the Verge قال إن “ديميس ليس خجولًا من أن هدفه هو بناء الذكاء الاصطناعي العام ، وتحدثنا من خلال ما هي المخاطر واللوائح التي يجب أن تكون في مكانها والجدول الزمني”.

روابط للإيثار الفعال: يُعرف باحثو DeepMind مثل Rohin Shan و Sebastian Farquar بأنهم مؤثرون فعالون ، بينما تحدث Hasabis في مؤتمرات EA ومجموعات من DeepMind وقد حضر المؤتمر العالمي الفعال للإيثار. تم إجراء مقابلة مع Pushmeet Kohli ، العالم الرئيسي وقائد فريق البحث في DeepMind ، حول سلامة الذكاء الاصطناعي على 80000 ساعة بودكاست.

أنثروبيك: “أبحاث الذكاء الاصطناعي والمنتجات التي تضع السلامة في المقدمة”

مهمة: وفقًا لموقع Anthropic الإلكتروني ، تتمثل مهمتها في “ضمان أن يساعد الذكاء الاصطناعي التحويلي الناس والمجتمع على الازدهار. قد يكون التقدم في هذا العقد سريعًا ، ونتوقع أن تفرض الأنظمة ذات القدرات بشكل متزايد تحديات جديدة. نتابع مهمتنا من خلال بناء أنظمة حدودية ، ودراسة سلوكياتهم ، والعمل على نشرها بمسؤولية ، ومشاركة رؤيتنا المتعلقة بالسلامة بانتظام. نحن نتعاون مع المشاريع الأخرى وأصحاب المصلحة الذين يسعون لتحقيق نتيجة مماثلة “.

ركز على الذكاء الاصطناعي العام والمخاطر السيئة: تأسست Anthropic في عام 2021 من قبل العديد من الموظفين السابقين في OpenAI الذين اعترضوا على توجيه OpenAI (مثل علاقتها مع Microsoft) – بما في ذلك Dario Amodei ، الذي شغل منصب نائب رئيس OpenAI للأبحاث وهو الآن الرئيس التنفيذي لشركة Anthropic. بحسب حديث متعمق نيويورك تايمز مقال بعنوان “Inside the White-Hot Center of AI Doomerism ،” يشعر الموظفون الأنثروبيون بقلق بالغ بشأن مخاطر x: “يعتقد الكثير منهم أن نماذج الذكاء الاصطناعي تقترب بسرعة من مستوى يمكن اعتباره ذكاءً عامًا اصطناعيًا ، أو AGI ، وهو مصطلح صناعي للذكاء الآلي على مستوى الإنسان. وهم يخشون أنه إذا لم يتم التحكم فيها بعناية ، فإن هذه الأنظمة يمكن أن تسيطر علينا وتدمرنا “.

روابط للإيثار الفعال: لدى Anthropic بعض أوضح الروابط بمجتمع EA في أي من مختبرات الذكاء الاصطناعي الكبيرة. “لا يوجد مختبر كبير للذكاء الاصطناعي يجسد روح EA تمامًا مثل الأنثروبيا” ، قال نيويورك تايمز قطعة. “كان العديد من الموظفين الأوائل للشركة مؤثرين فعالين ، وجاء جزء كبير من تمويل الشركات الناشئة من المديرين التنفيذيين التقنيين الأثرياء التابعين لشركة EA ، بما في ذلك داستن موسكوفيتز ، أحد مؤسسي Facebook ، وجان تالين ، أحد مؤسسي Skype.”

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.




اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading