انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر
رسالة مفتوحة جديدة تدعو إلى “وقفة” لمدة ستة أشهر حول تطوير الذكاء الاصطناعي على نطاق واسع بما يتجاوز GPT-4 الخاص بـ OpenAI يسلط الضوء على الخطاب المعقد والنقاش العنيف سريع النمو حول مخاطر تقلب المعدة المختلفة للذكاء الاصطناعي ، على المدى القصير والطويل. شرط.
يقول منتقدو الرسالة – التي وقعها إيلون ماسك وستيف ووزنياك ويوشوا بينجيو وجاري ماركوس وعدة آلاف آخرين من خبراء الذكاء الاصطناعي والباحثين وقادة الصناعة – إنها تثير إنذارًا غير مفيد حول المخاطر الافتراضية ، مما يؤدي إلى معلومات مضللة ومعلومات مضللة حول حقيقة واقعة. – مخاوف العالم. وأشار آخرون إلى الطبيعة غير الواقعية لـ “التوقف المؤقت” وقالوا إن الرسالة لا تتناول الجهود الحالية نحو تنظيم وتشريع عالمي للذكاء الاصطناعي.
تم نشر الرسالة من قبل مؤسسة Future of Life غير الربحية ، والتي تم تأسيسها “لتقليل المخاطر الكارثية والوجودية العالمية من التقنيات القوية” (ومن بين المؤسسين عالم الكونيات بمعهد ماساتشوستس للتكنولوجيا Max Tegmark ، والمؤسس المشارك لـ Skype جان تالين ، وعالم الأبحاث في DeepMind Viktoriya Krakovna) . تقول الرسالة: “مع المزيد من البيانات والحسابات ، تتوسع قدرات أنظمة الذكاء الاصطناعي بسرعة. أصبحت أكبر النماذج قادرة بشكل متزايد على تجاوز الأداء البشري في العديد من المجالات. لا يمكن لأي شركة أن تتنبأ بما يعنيه هذا لمجتمعاتنا “.
تشير الرسالة إلى أن الذكاء الخارق ليس هو الضرر الوحيد الذي يجب القلق بشأنه عندما يتعلق الأمر بنماذج الذكاء الاصطناعي الكبيرة – فإمكانية انتحال الهوية والمعلومات المضللة أخرى. ومع ذلك ، فإنه يؤكد أن الهدف المعلن للعديد من المعامل التجارية هو تطوير الذكاء الاصطناعي العام (AGI) ويضيف أن بعض الباحثين يعتقدون أننا قريبون من الذكاء الاصطناعي العام ، مع مخاوف مصاحبة لسلامة الذكاء الاصطناعي العام وأخلاقياته.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
وجاء في الرسالة: “نعتقد أن أنظمة الذكاء الاصطناعي القوية يجب أن يتم تطويرها فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة”.
تحدث الناقد القديم لمنظمة العفو الدولية غاري ماركوس إلى كيد ميتز من نيويورك تايمز حول الرسالة. “لدينا عاصفة كاملة من عدم مسؤولية الشركات ، وتبني واسع النطاق ، ونقص في التنظيم وعدد كبير من الأمور المجهولة.”
منتقدون يقولون إن الرسالة “ تزيد من ضجيج الذكاء الاصطناعي ”
دعا منتقدو الرسالة إلى ما اعتبروه ضجيجًا مستمرًا حول المخاطر الافتراضية طويلة المدى للذكاء الاصطناعي العام على حساب المخاطر على المدى القريب مثل التحيز والمعلومات الخاطئة التي تحدث بالفعل.
أرفيند نارايانان ، أستاذ علوم الكمبيوتر في جامعة برينستون ، قال على تويتر أن الرسالة “تزيد من ضجيج الذكاء الاصطناعي وتجعل من الصعب معالجة أضرار الذكاء الاصطناعي الحقيقية التي تحدث بالفعل” ، مضيفًا أنه يشك في أنها “ستفيد الشركات التي من المفترض أن تنظمها ، وليس المجتمع”.
وقال أليكس إنجلر ، زميل باحث في معهد بروكينغز ، لـ Tech Policy Press أنه “سيكون أكثر مصداقية وفعالية إذا كانت افتراضاتها تستند بشكل معقول إلى واقع نماذج التعلم الآلي الكبيرة ، والتي هي ليست كذلك ، مفسدة ،” مضيفًا أنه “يؤيد بشدة” وصول طرف ثالث مستقل إلى نماذج ML الكبيرة ومراجعتها. “هذا تدخل رئيسي للتحقق من مطالبات الشركات ، وتمكين الاستخدام الآمن وتحديد التهديدات الناشئة الحقيقية.”
وصفت جوانا بريسون ، الأستاذة في مدرسة هيرتي في برلين والتي تعمل في مجال الذكاء الاصطناعي والأخلاق ، الرسالة بأنها “المزيد من الليبرتارية في درجة البكالوريوس” التغريد أننا لسنا بحاجة إلى إبطاء الذكاء الاصطناعي بشكل تعسفي ، فنحن بحاجة إلى منتجات الذكاء الاصطناعي لتكون آمنة. ويتضمن ذلك متابعة وتوثيق الممارسات الجيدة ، الأمر الذي يتطلب التنظيم والتدقيق “.
وتابعت أن القضية ، في إشارة إلى قانون الاتحاد الأوروبي للذكاء الاصطناعي ، هي أننا “متقدمون بشكل جيد في عملية تشريعية أوروبية غير معترف بها هنا”. وأضافت أيضًا: “لا أعتقد أن دعوة الوقف هذه منطقية. إذا كانوا يريدون ذلك ، فلماذا لا يعملون من خلال منتدى إدارة الإنترنت أو اليونسكو؟ “
إميلي إم بندر ، أستاذة اللسانيات في جامعة واشنطن ومؤلفة مشاركة لكتاب “حول مخاطر الببغاوات العشوائية: هل يمكن أن تكون النماذج اللغوية كبيرة جدًا؟” ذهب أبعد من ذلك ، حيث غرد أن ورقة Stochastic Parrots أشارت إلى اندفاع “متهور” لنماذج لغوية أكبر من أي وقت مضى دون النظر في المخاطر.
وقالت: “لكن المخاطر والأضرار لم تكن أبدًا تتعلق بذكاء اصطناعي قوي للغاية”. بدلاً من ذلك ، “يتعلق الأمر بتركيز القوة في أيدي الناس ، وحول إعادة إنتاج أنظمة الاضطهاد ، وبشأن الضرر الذي يلحق بالنظام البيئي للمعلومات ، وحول الضرر الذي يلحق بالنظام البيئي الطبيعي (من خلال الاستخدام المسرف لموارد الطاقة).”
ردًا على الانتقادات ، ماركوس يشير الى على Twitter أنه في حين أنه لا يتفق مع جميع عناصر الرسالة المفتوحة ، فإنه “لم يدع الكمال هو عدو الخير.” قال إنه “لا يزال متشككًا” ، “من يعتقد أن نماذج اللغة الكبيرة ضحلة وليست قريبة من الذكاء الاصطناعي العام. لكن لا يزال بإمكانهم إحداث ضرر حقيقي “. لقد أيد “الروح الشاملة” للرسالة ، وروج لها “لأن هذه هي المحادثة التي نحتاج بشدة إلى إجرائها.”
خطاب مفتوح مشابه لتحذيرات وسائل الإعلام الرئيسية الأخرى
في حين أن إصدار GPT-4 قد ملأ صفحات ووحدات البكسل للوسائط السائدة ، كان هناك تركيز وسائط موازية على مخاطر تطوير الذكاء الاصطناعي على نطاق واسع – لا سيما الاحتمالات الافتراضية على المدى الطويل.
كان ذلك في صميم مقابلة مع VentureBeat أمس مع Suresh Venkatasubramanian ، مستشار سياسة الذكاء الاصطناعي السابق للبيت الأبيض لإدارة بايدن من 2021-2022 (حيث ساعد في تطوير مخطط قانون حقوق الذكاء الاصطناعي) وأستاذ علوم الكمبيوتر في جامعة براون. .
تناول المقال بالتفصيل رد فينكاتاسوبرامانيان النقدي على تغريدات السناتور كريس مورفي (D-CT) حول ChatGPT. قال إن تعليقات مورفي ، بالإضافة إلى مقال افتتاحي حديث من صحيفة نيويورك تايمز ومقالات رأي مماثلة ، تديم “إثارة الخوف حول أنظمة الذكاء الاصطناعي التوليدية التي ليست بناءة للغاية وتمنعنا من الانخراط فعليًا في القضايا الحقيقية مع أنظمة ذكاء اصطناعي غير منتجة “.
وأضاف أنه يجب علينا “التركيز على الأضرار التي نشهدها بالفعل مع الذكاء الاصطناعي ، ثم القلق بشأن الاستيلاء المحتمل على الكون بواسطة الذكاء الاصطناعي التوليدي”.
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.