ان رسالة مفتوحة موقعة من المئات من خبراء الذكاء الاصطناعي البارزين ورجال الأعمال التقنيين والعلماء تدعو إلى التوقف مؤقتًا عن تطوير واختبار تقنيات الذكاء الاصطناعي الأكثر قوة من نموذج اللغة GPT-4 الخاص بـ OpenAI بحيث يمكن دراسة المخاطر التي قد تشكلها بشكل صحيح.
يحذر من أن نماذج اللغة مثل GPT-4 يمكنها بالفعل التنافس مع البشر في مجموعة متزايدة من المهام ويمكن استخدامها لأتمتة الوظائف ونشر المعلومات المضللة. تثير الرسالة أيضًا الاحتمال البعيد لأنظمة الذكاء الاصطناعي التي يمكن أن تحل محل البشر وتعيد تشكيل الحضارة.
“ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 (بما في ذلك GPT-5 الذي يتم تدريبه حاليًا)” ، كما ورد في الرسالة ، التي من بين الموقعين عليها يوشوا بنجيو ، يعتبر أستاذًا في جامعة مونتريال رائدًا في مجال الذكاء الاصطناعي الحديث ، والمؤرخ يوفال نوح هراري ، ومؤسس سكايب جان تالين ، والمدير التنفيذي لشركة Twitter Elon Musk.
تضيف الرسالة ، التي كتبها معهد Future of Life Institute ، وهي منظمة تركز على المخاطر التكنولوجية للإنسانية ، أن التوقف المؤقت يجب أن يكون “علنيًا ويمكن التحقق منه” ، ويجب أن يشمل جميع العاملين على نماذج الذكاء الاصطناعي المتقدمة مثل GPT-4. وهي لا تشير إلى كيفية التحقق من وقف التنمية ، لكنها تضيف أنه “إذا لم يكن بالإمكان تفعيل مثل هذا التوقف بشكل سريع ، يجب على الحكومات التدخل وفرض وقف مؤقت” ، وهو أمر يبدو أنه من غير المحتمل أن يحدث في غضون ستة أشهر.
ولم ترد مايكروسوفت وجوجل على طلبات للتعليق على الرسالة. يبدو أن الموقعين يشملون أشخاصًا من العديد من شركات التكنولوجيا التي تبني نماذج لغة متقدمة ، بما في ذلك Microsoft و Google. تقول هانا وونغ ، المتحدثة باسم OpenAI ، إن الشركة أمضت أكثر من ستة أشهر في العمل على سلامة ومواءمة GPT-4 بعد تدريب النموذج. وتضيف أن OpenAI لا تقوم حاليًا بتدريب GPT-5.
تأتي الرسالة في الوقت الذي تحقق فيه أنظمة الذكاء الاصطناعي قفزات جريئة ومثيرة للإعجاب بشكل متزايد. تم الإعلان عن GPT-4 منذ أسبوعين فقط ، لكن قدراته أثارت حماسًا كبيرًا وقدرًا لا بأس به من القلق. نموذج اللغة ، المتوفر عبر ChatGPT ، روبوت الدردشة الشهير لـ OpenAI ، يحرز درجات عالية في العديد من الاختبارات الأكاديمية ، ويمكنه حل الأسئلة الصعبة التي يعتقد عمومًا أنها تتطلب ذكاءً أكثر تقدمًا مما أظهرته أنظمة الذكاء الاصطناعي سابقًا. ومع ذلك ، يرتكب GPT-4 الكثير من الأخطاء المنطقية التافهة. ومثل سابقاتها ، فإنها أحيانًا “تهلوس” بمعلومات غير صحيحة ، وتنم عن التحيزات المجتمعية المتأصلة ، ويمكن حثها على قول أشياء بغيضة أو قد تكون ضارة.
جزء من القلق الذي أعرب عنه الموقعون على الرسالة هو أن OpenAI و Microsoft و Google قد بدأوا سباقًا مدفوعًا بالربح لتطوير وإصدار نماذج جديدة للذكاء الاصطناعي في أسرع وقت ممكن. بهذه الوتيرة ، كما تقول الرسالة ، تحدث التطورات بشكل أسرع مما يمكن للمجتمع والمنظمين أن يتصالحوا معه.
إن وتيرة التغيير – وحجم الاستثمار – أمران مهمان. ضخت Microsoft 10 مليارات دولار في OpenAI وتستخدم الذكاء الاصطناعي الخاص بها في محرك البحث Bing بالإضافة إلى تطبيقات أخرى. على الرغم من أن Google طورت بعضًا من الذكاء الاصطناعي اللازم لبناء GPT-4 ، وأنشأت سابقًا نماذج لغوية قوية خاصة بها ، إلا أنها اختارت عدم إصدارها حتى هذا العام بسبب مخاوف أخلاقية.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.