في مارس ، حاول اثنان من موظفي Google ، وظيفتهما مراجعة منتجات الذكاء الاصطناعي للشركة ، منع Google من إطلاق روبوت محادثة بالذكاء الاصطناعي. لقد اعتقدوا أنه ولّد تصريحات غير دقيقة وخطيرة.
قبل عشرة أشهر ، أثيرت مخاوف مماثلة في مايكروسوفت من قبل الأخلاقيات والموظفين الآخرين. لقد كتبوا في عدة وثائق أن تقنية الذكاء الاصطناعي الكامنة وراء روبوت محادثة مخطط يمكن أن تغمر مجموعات Facebook بالمعلومات المضللة ، وتقوض التفكير النقدي وتضعف الأساس الواقعي للمجتمع الحديث.
أصدرت الشركات برامج الدردشة الخاصة بهم على أي حال. كانت شركة Microsoft في البداية ، بحدث مثير في فبراير للكشف عن روبوت محادثة AI منسوج في محرك بحث Bing الخاص بها. تبعت Google بعد حوالي ستة أسابيع من خلال برنامج chatbot الخاص بها ، Bard.
كانت التحركات العدوانية من قبل الشركات التي تتجنب المخاطر عادةً مدفوعة بسباق للسيطرة على ما يمكن أن يكون الشيء الكبير التالي في صناعة التكنولوجيا – الذكاء الاصطناعي التوليدي ، التكنولوجيا الجديدة القوية التي تغذي روبوتات المحادثة هذه.
اتخذت تلك المنافسة نبرة محمومة في نوفمبر عندما أطلقت شركة OpenAI ، وهي شركة ناشئة في سان فرانسيسكو تعمل مع Microsoft ، ChatGPT ، وهو روبوت محادثة استحوذ على مخيلة الجمهور ولديه الآن ما يقدر بنحو 100 مليون مستخدم شهريًا.
أدى النجاح المثير للدهشة في ChatGPT إلى استعداد Microsoft و Google لتحمل مخاطر أكبر من خلال إرشاداتهم الأخلاقية التي تم وضعها على مر السنين لضمان ألا تسبب تقنيتهم مشاكل مجتمعية ، وفقًا لما ذكره 15 موظفًا حاليًّا وسابقًا ومستندات داخلية من الشركات. .
تبلورت الحاجة الملحة للبناء باستخدام الذكاء الاصطناعي الجديد في رسالة بريد إلكتروني داخلية أرسلها سام شيلاس ، المدير التقني في Microsoft ، الشهر الماضي. كتب في الرسالة الإلكترونية ، التي اطلعت عليها صحيفة نيويورك تايمز ، أنه كان “خطأ فادحًا للغاية في هذه اللحظة للقلق بشأن الأشياء التي يمكن إصلاحها لاحقًا”.
عندما تتحول صناعة التكنولوجيا فجأة نحو نوع جديد من التكنولوجيا ، فإن الشركة الأولى التي تقدم منتجًا “هي الفائز على المدى الطويل لمجرد أنها بدأت أولاً” ، كما كتب. “أحيانًا يُقاس الفارق بأسابيع.”
في الأسبوع الماضي ، ظهر التوتر بين قلق الصناعة والمخاطرين علنًا حيث دعا أكثر من 1000 باحث وقادة الصناعة ، بما في ذلك Elon Musk والمؤسس المشارك لشركة Apple ستيف وزنياك ، إلى توقف لمدة ستة أشهر في تطوير تقنية قوية للذكاء الاصطناعي. في رسالة عامة ، قالوا إن ذلك يمثل “مخاطر عميقة على المجتمع والإنسانية”.
يهدد المنظمون بالفعل بالتدخل. اقترح الاتحاد الأوروبي تشريعًا لتنظيم الذكاء الاصطناعي ، وحظرت إيطاليا مؤقتًا ChatGPT الأسبوع الماضي. في الولايات المتحدة ، أصبح الرئيس بايدن يوم الثلاثاء أحدث مسؤول يشكك في سلامة الذكاء الاصطناعي
جيل جديد من روبوتات المحادثة
عالم جديد شجاع. أشعلت مجموعة جديدة من روبوتات المحادثة المدعومة بالذكاء الاصطناعي تدافعًا لتحديد ما إذا كانت التكنولوجيا يمكن أن تقلب اقتصاديات الإنترنت ، وتحول القوى العاملة اليوم إلى باقات ، وتخلق عمالقة الصناعة القادمين. إليك الروبوتات التي يجب معرفتها:
قال في البيت الأبيض: “تتحمل شركات التكنولوجيا مسؤولية التأكد من أن منتجاتها آمنة قبل الإعلان عنها”. عندما سئل عما إذا كان الذكاء الاصطناعي خطيرًا ، قال: “يبقى أن نرى. ممكن ان يكون.”
القضايا التي أثيرت الآن كانت ذات يوم من أنواع المخاوف التي دفعت بعض الشركات إلى الاعتماد على التكنولوجيا الجديدة. لقد تعلموا أن إطلاق الذكاء الاصطناعي قبل الأوان قد يكون أمرًا محرجًا. قبل خمس سنوات ، على سبيل المثال ، سحبت Microsoft بسرعة روبوت محادثة يسمى Tay بعد أن دفعه المستخدمون لتوليد ردود عنصرية.
يقول الباحثون إن مايكروسوفت وجوجل يخاطرون بإطلاق تكنولوجيا لا يفهمها حتى مطوروها بالكامل. لكن الشركات قالت إنها حدت من نطاق الإصدار الأولي لبرامج الدردشة الجديدة الخاصة بها ، وأنهم قاموا ببناء أنظمة تصفية متطورة للتخلص من خطاب الكراهية والمحتوى الذي يمكن أن يسبب ضررًا واضحًا.
قالت ناتاشا كرامبتون ، مديرة منظمة العفو الدولية المسؤولة في Microsoft ، في مقابلة إن ست سنوات من العمل حول الذكاء الاصطناعي والأخلاقيات في Microsoft سمحت للشركة “بالتحرك بذكاء ومدروس”. وأضافت أن “التزامنا تجاه الذكاء الاصطناعي المسؤول لا يزال ثابتًا”.
أطلقت Google سراح Bard بعد سنوات من المعارضة الداخلية حول ما إذا كانت الفوائد التوليدية للذكاء الاصطناعي تفوق المخاطر. أعلنت عن Meena ، روبوت محادثة مماثل ، في عام 2020. لكن ثلاثة أشخاص على دراية بهذه العملية اعتبروا مخاطرة كبيرة للغاية. تم الإبلاغ عن هذه المخاوف في وقت سابق من قبل صحيفة وول ستريت جورنال.
في وقت لاحق من عام 2020 ، منعت Google كبار الباحثين الأخلاقيين في مجال الذكاء الاصطناعي ، Timnit Gebru و Margaret Mitchell ، من نشر ورقة تحذر من أن ما يسمى بنماذج اللغة الكبيرة المستخدمة في أنظمة الذكاء الاصطناعي الجديدة ، والتي يتم تدريبها على التعرف على الأنماط من كميات هائلة من البيانات ، يمكن أن إلقاء لغة مسيئة أو تمييزية. تم طرد الباحثين بعد أن انتقدت السيدة جيبرو جهود الشركة المتنوعة واتهمت السيدة ميتشل بانتهاك مدونة قواعد السلوك الخاصة بها بعد أن حفظت بعض رسائل البريد الإلكتروني الخاصة بالعمل في حساب شخصي على Google Drive.
قالت السيدة ميتشل إنها حاولت مساعدة Google في إطلاق المنتجات بمسؤولية وتجنب التنظيم ، ولكن بدلاً من ذلك “أطلقوا النار على أنفسهم بالفعل”.
قال بريان جابرييل ، المتحدث باسم Google ، في بيان “نواصل جعل الذكاء الاصطناعي المسؤول أولوية قصوى ، باستخدام مبادئ الذكاء الاصطناعي وهياكل الحوكمة الداخلية الخاصة بنا لمشاركة تطورات الذكاء الاصطناعي بشكل مسؤول مع مستخدمينا.”
استمرت المخاوف بشأن النماذج الأكبر. في كانون الثاني (يناير) 2022 ، رفضت Google السماح لباحث آخر ، هو المهدي المحمدي ، بنشر ورقة نقدية.
استخدم السيد المحمدي ، وهو موظف غير متفرغ وأستاذ جامعي ، النظريات الرياضية للتحذير من أن أكبر نماذج الذكاء الاصطناعي أكثر عرضة لهجمات الأمن السيبراني وتمثل مخاطر خصوصية غير عادية لأنهم ربما تمكنوا من الوصول إلى البيانات الخاصة المخزنة في مواقع مختلفة حولها. الإنترنت.
على الرغم من أن عرضًا تقديميًا تنفيذيًا حذر لاحقًا من انتهاكات الخصوصية المماثلة لمنظمة العفو الدولية ، فقد طلب مراجعو Google من السيد المحمدي إجراء تغييرات جوهرية. رفض وأطلق الجريدة من خلال École Polytechnique.
استقال من Google هذا العام ، مشيرًا جزئيًا إلى “الرقابة على الأبحاث”. وقال إن مخاطر الذكاء الاصطناعي الحديثة “فاقت إلى حد كبير” الفوائد. وأضاف “إنه نشر سابق لأوانه”.
بعد إصدار ChatGPT ، التقى كينت ووكر ، كبير محامي Google ، بمسؤولين تنفيذيين في مجال البحث والسلامة في مجلس مراجعة التكنولوجيا المتقدمة القوي للشركة. أخبرهم أن سوندار بيتشاي ، الرئيس التنفيذي لشركة Google ، كان يضغط بشدة لإصدار الذكاء الاصطناعي من Google
وحضر الاجتماع جين جيناي ، مدير مجموعة الابتكار المسؤول في Google. تذكرت ما قاله السيد ووكر لموظفيها.
وقالت السيدة جيناي في تسجيل راجعته صحيفة The Times ، إن الاجتماع كان “كينت يتحدث في المسؤولين التنفيذيين في ATRC ، ويخبرهم ،” هذه هي أولوية الشركة “. “” ما هي مخاوفك؟ دعنا نصطف. “
قال السيد والكر للحضور إلى المسار السريع لمشاريع الذكاء الاصطناعي ، على الرغم من أن بعض المديرين التنفيذيين قالوا إنهم سيحافظون على معايير السلامة ، كما قالت السيدة جيناي.
كان فريقها قد وثق بالفعل مخاوف بشأن روبوتات المحادثة: فقد يقدمون معلومات كاذبة ، ويؤذون المستخدمين الذين يرتبطون بهم عاطفياً ويمكّنون من “العنف الذي تسهله التكنولوجيا” من خلال المضايقات الجماعية عبر الإنترنت.
في مارس ، قدم اثنان من المراجعين من فريق السيدة جيناي تقييمهم لمخاطر شركة بارد. قال شخصان مطلعان على العملية إنهم أوصوا بمنع إطلاقه الوشيك. على الرغم من الضمانات ، اعتقدوا أن الشات بوت لم يكن جاهزًا.
آنسة. غيّرت جيناي تلك الوثيقة. قال الناس إنها أخذت التوصية وقللت من خطورة مخاطر بارد.
قالت السيدة جيناي في رسالة بريد إلكتروني إلى The Times أنه نظرًا لأن Bard كانت تجربة ، لم يكن من المفترض أن يفكر المراجعون في ما إذا كان عليهم المضي قدمًا. قالت إنها “صححت الافتراضات غير الدقيقة ، وفي الواقع أضافت المزيد من المخاطر والأضرار التي تحتاج إلى دراسة”.
قالت غوغل إنها أصدرت Bard كتجربة محدودة بسبب تلك المناقشات ، وقالت السيدة جيناي إن استمرار التدريب والحواجز وإخلاء المسؤولية جعل برنامج الدردشة الآلي أكثر أمانًا.
أصدرت Google إصدار Bard لبعض المستخدمين في 21 مارس. وقالت الشركة إنها ستدمج قريبًا الذكاء الاصطناعي التوليدي في محرك البحث الخاص بها.
راهن ساتيا ناديلا ، الرئيس التنفيذي لشركة Microsoft ، على الذكاء الاصطناعي التوليدي في عام 2019 عندما استثمرت Microsoft مليار دولار في OpenAI. بعد أن قرر أن التكنولوجيا كانت جاهزة خلال الصيف ، دفع السيد Nadella كل فريق من منتجات Microsoft لاعتماد الذكاء الاصطناعي
قال خمسة موظفين حاليين وسابقين إن Microsoft لديها سياسات طورها مكتب الذكاء الاصطناعي المسؤول التابع لها ، وهو فريق تديره السيدة كرامبتون ، لكن المبادئ التوجيهية لم يتم تطبيقها أو اتباعها باستمرار.
على الرغم من وجود مبدأ “الشفافية” ، إلا أن خبراء الأخلاقيات الذين يعملون على روبوت المحادثة لم يتلقوا إجابات حول البيانات التي استخدمتها OpenAI لتطوير أنظمتها ، وفقًا لثلاثة أشخاص مشاركين في العمل. جادل البعض بأن دمج روبوتات المحادثة في محرك بحث كان فكرة سيئة بشكل خاص ، بالنظر إلى كيفية تقديمه أحيانًا لتفاصيل غير صحيحة ، كما قال شخص لديه معرفة مباشرة بالمحادثات.
قالت السيدة كرامبتون إن الخبراء عبر Microsoft عملوا على Bing ، وكان بإمكان الأشخاص الرئيسيين الوصول إلى بيانات التدريب. وأضافت أن الشركة عملت على جعل chatbot أكثر دقة من خلال ربطه بنتائج بحث Bing.
في الخريف ، بدأت Microsoft في تفكيك أحد أكبر فرق أخلاقيات التكنولوجيا لديها. قامت مجموعة الأخلاقيات والمجتمع بتدريب واستشارة قادة منتجات الشركة للتصميم والبناء بمسؤولية. في أكتوبر / تشرين الأول ، تم تقسيم معظم أعضائها إلى مجموعات أخرى ، وفقًا لأربعة أشخاص مطلعين على الفريق.
انضم العدد القليل المتبقي إلى الاجتماعات اليومية مع فريق Bing ، وتسابقوا لإطلاق برنامج الدردشة الآلي. أخبرهم جون مونتغمري ، المدير التنفيذي للذكاء الاصطناعي ، في رسالة بريد إلكتروني في ديسمبر / كانون الأول أن عملهم لا يزال حيويًا وأن المزيد من الفرق “ستحتاج أيضًا إلى مساعدتنا”.
بعد تقديم Bing المدعوم بالذكاء الاصطناعي ، وثق فريق الأخلاقيات المخاوف العالقة. يمكن أن يصبح المستخدمون معتمدين بشكل كبير على الأداة. قد تؤدي الإجابات غير الدقيقة إلى تضليل المستخدمين. يمكن أن يعتقد الناس أن روبوت المحادثة ، الذي يستخدم حرف “أنا” والرموز التعبيرية ، كان بشريًا.
في منتصف شهر مارس ، تم تسريح الفريق ، وهو إجراء تم الإبلاغ عنه لأول مرة بواسطة النشرة الإخبارية التقنية Platformer. لكن السيدة كرامبتون قالت إن مئات الموظفين ما زالوا يعملون في جهود الأخلاق.
أصدرت Microsoft منتجات جديدة كل أسبوع ، بوتيرة محمومة لتحقيق الخطط التي بدأها السيد Nadella في الصيف عندما قام بمعاينة أحدث طراز من OpenAI.
طلب من الشات بوت ترجمة الشاعر الفارسي جلال الدين الرومي إلى الأردية ، ثم الإنجليزية. قال في مقابلة في فبراير: “لقد عملت مثل السحر”. “ثم قلت: الله هذا الشيء.”
مايك اسحق ساهم في إعداد التقارير. سوزان سي بيتشي ساهم في البحث.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.