Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
اخبار

حذر كبار الباحثين في مجال الذكاء الاصطناعي والرؤساء التنفيذيين في بيان مشترك من “خطر الانقراض”


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


أصدرت مجموعة من خبراء الذكاء الاصطناعي الرائدين في العالم – بما في ذلك العديد من الباحثين الرواد الذين دقوا ناقوس الخطر في الأشهر الأخيرة حول التهديدات الوجودية التي يشكلها عملهم – بيانًا شديد اللهجة يوم الثلاثاء يحذر من “خطر الانقراض” من الذكاء الاصطناعي المتقدم إذا لم تتم إدارة تطويره بشكل صحيح.

يهدف البيان المشترك ، الذي وقعه مئات الخبراء بما في ذلك الرؤساء التنفيذيون لشركة OpenAI و DeepMind و Anthropic ، إلى التغلب على العقبات التي تحول دون مناقشة المخاطر الكارثية من الذكاء الاصطناعي ، وفقًا لمؤلفيه. يأتي ذلك خلال فترة تزايد القلق بشأن التأثيرات المجتمعية للذكاء الاصطناعي ، حتى في الوقت الذي تسعى فيه الشركات والحكومات إلى تحقيق قفزات تحويلية في قدراتها.

جاء في البيان الذي نشره مركز أمان الذكاء الاصطناعي: “يناقش خبراء الذكاء الاصطناعي والصحفيون وصناع القرار والجمهور بشكل متزايد مجموعة واسعة من المخاطر المهمة والعاجلة من الذكاء الاصطناعي”. “ومع ذلك ، قد يكون من الصعب التعبير عن مخاوف بشأن بعض المخاطر الأكثر خطورة للذكاء الاصطناعي. يهدف البيان الموجز أدناه إلى التغلب على هذه العقبة وفتح باب المناقشة “.

القادة اللامعين يدركون المخاوف

ومن بين الموقعين بعض الشخصيات الأكثر نفوذاً في صناعة الذكاء الاصطناعي ، مثل سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ؛ دينيس حسابيس ، الرئيس التنفيذي لشركة Google DeepMind ؛ وداريو أمودي ، الرئيس التنفيذي لشركة Anthropic. تعتبر هذه الشركات على نطاق واسع في طليعة البحث والتطوير في مجال الذكاء الاصطناعي ، مما يجعل إدراك مديريها التنفيذيين للمخاطر المحتملة جديرًا بالملاحظة بشكل خاص.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

ومن بين الباحثين البارزين الذين وقعوا على البيان أيضًا يوشوا بنجيو ، وهو رائد في التعلم العميق. Ya-Qin Zhang ، العالم المتميز ونائب رئيس شركة Microsoft ؛ وجيفري هينتون ، المعروف باسم “الأب الروحي للتعلم العميق” ، الذي ترك منصبه مؤخرًا في Google “للتحدث بحرية أكبر” عن التهديد الوجودي الذي يشكله الذكاء الاصطناعي.

لفت رحيل هينتون عن Google الشهر الماضي الانتباه إلى آرائه المتطورة حول قدرات أنظمة الكمبيوتر التي قضى حياته في البحث عنها. في عمر 75 عامًا ، أعرب الأستاذ الشهير عن رغبته في المشاركة في مناقشات صريحة حول المخاطر المحتملة للذكاء الاصطناعي دون قيود الانتماء المؤسسي.

دعوة للعمل

يأتي البيان المشترك في أعقاب مبادرة مماثلة في مارس عندما وقع عشرات الباحثين على خطاب مفتوح يدعو إلى “وقفة” لمدة ستة أشهر لتطوير الذكاء الاصطناعي على نطاق واسع بما يتجاوز GPT-4 الخاص بـ OpenAI. ضم الموقعون على خطاب “التوقف” شخصيات بارزة في مجال التكنولوجيا إيلون ماسك وستيف وزنياك وبينجيو وجاري ماركوس.

على الرغم من هذه الدعوات للحذر ، لا يزال هناك إجماع ضئيل بين قادة الصناعة وواضعي السياسات حول أفضل نهج لتنظيم وتطوير الذكاء الاصطناعي بشكل مسؤول. في وقت سابق من هذا الشهر ، التقى قادة التكنولوجيا بما في ذلك ألتمان وأمودي وحسابيس مع الرئيس بايدن ونائب الرئيس هاريس لمناقشة التنظيم المحتمل. في شهادة لاحقة في مجلس الشيوخ ، دعا ألتمان إلى تدخل الحكومة ، مشددًا على خطورة المخاطر التي تشكلها أنظمة الذكاء الاصطناعي المتقدمة والحاجة إلى التنظيم لمعالجة الأضرار المحتملة.

في منشور مدونة حديث ، حدد المسؤولون التنفيذيون في OpenAI العديد من المقترحات لإدارة أنظمة الذكاء الاصطناعي بشكل مسؤول. ومن بين توصياتهم زيادة التعاون بين كبار الباحثين في مجال الذكاء الاصطناعي ، وإجراء المزيد من البحوث التقنية المتعمقة في نماذج اللغات الكبيرة (LLMs) ، وإنشاء منظمة سلامة دولية تعمل بالذكاء الاصطناعي. يعتبر هذا البيان بمثابة دعوة أخرى للعمل ، حيث يحث المجتمع الأوسع على الانخراط في محادثة هادفة حول مستقبل الذكاء الاصطناعي وتأثيره المحتمل على المجتمع.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى