صناعة وابتكار

جعلت Meta تكنولوجيا الذكاء الاصطناعي الخاصة بها مفتوحة المصدر. المنافسون يقولون إنه قرار محفوف بالمخاطر.


في فبراير ، قامت Meta بخطوة غير عادية في عالم الذكاء الاصطناعي سريع التطور: قررت التخلي عن جواهر تاج الذكاء الاصطناعي.

ابتكرت شركة Silicon Valley العملاقة ، التي تمتلك Facebook و Instagram و WhatsApp ، تقنية AI ، تسمى LLaMA ، يمكنها تشغيل برامج الدردشة عبر الإنترنت. ولكن بدلاً من الاحتفاظ بالتكنولوجيا لنفسها ، أطلقت Meta رمز الكمبيوتر الأساسي للنظام في البرية. يمكن للأكاديميين والباحثين الحكوميين وغيرهم ممن قدموا عناوين بريدهم الإلكتروني إلى Meta تنزيل الكود بمجرد قيام الشركة بفحص الفرد.

بشكل أساسي ، كانت Meta تمنح تقنية الذكاء الاصطناعي الخاصة بها كبرنامج مفتوح المصدر – رمز كمبيوتر يمكن نسخه وتعديله وإعادة استخدامه بحرية – مما يوفر للغرباء كل ما يحتاجون إليه لبناء روبوتات محادثة خاصة بهم بسرعة.

قال Yann LeCun ، كبير علماء الذكاء الاصطناعي في Meta ، في مقابلة: “المنصة التي ستفوز ستكون مفتوحة”.

مع احتدام السباق لقيادة الذكاء الاصطناعي عبر وادي السيليكون ، تبرز Meta من منافسيها من خلال اتباع نهج مختلف للتكنولوجيا. بقيادة مؤسسها ورئيسها التنفيذي ، مارك زوكربيرج ، تعتقد شركة Meta أن أذكى ما يمكن فعله هو مشاركة محركات الذكاء الاصطناعي الأساسية كوسيلة لنشر نفوذها والتحرك بشكل أسرع نحو المستقبل.

تتناقض أفعالها مع تصرفات Google و OpenAI ، الشركتان اللتان تقودان سباق التسلح الجديد للذكاء الاصطناعي. خوفًا من استخدام أدوات الذكاء الاصطناعي مثل روبوتات المحادثة لنشر المعلومات المضللة وخطاب الكراهية والمحتويات السامة الأخرى ، أصبحت تلك الشركات أكثر سرية بشأن الأساليب والبرامج التي تدعم منتجات الذكاء الاصطناعي الخاصة بها.

انتقدت Google و OpenAI وغيرهما Meta ، قائلين إن اتباع نهج مفتوح المصدر غير مقيد يعد أمرًا خطيرًا. أثار الارتفاع السريع للذكاء الاصطناعي في الأشهر الأخيرة ناقوس الخطر بشأن مخاطر التكنولوجيا ، بما في ذلك كيف يمكن أن تقلب سوق العمل إذا لم يتم نشرها بشكل صحيح. وفي غضون أيام من إصدار LLaMA ، تسرب النظام إلى 4chan ، لوحة الرسائل عبر الإنترنت المعروفة بنشر معلومات خاطئة ومضللة.

قال زوبين قهرماني ، نائب رئيس الأبحاث في Google الذي يساعد في الإشراف على عمل الذكاء الاصطناعي: “نريد أن نفكر مليًا في التخلي عن التفاصيل أو رمز المصدر المفتوح” لتقنية الذكاء الاصطناعي. “أين يمكن أن يؤدي ذلك إلى سوء الاستخدام؟”

لكن ميتا قالت إنها لا ترى أي سبب للاحتفاظ بالشفرة الخاصة بها لنفسها. قال الدكتور LeCun إن السرية المتزايدة في Google و OpenAI هي “خطأ فادح” ، و “نظرة سيئة حقًا لما يحدث”. يجادل بأن المستهلكين والحكومات سيرفضون تبني الذكاء الاصطناعي ما لم يكن خارج سيطرة شركات مثل Google و Meta.

“هل تريد أن يكون كل نظام ذكاء اصطناعي تحت سيطرة شركتين أمريكيتين قويتين؟” سأل.

رفضت شركة أوبن إيه آي التعليق.

نهج Meta مفتوح المصدر للذكاء الاصطناعي ليس جديدًا. تاريخ التكنولوجيا مليء بالمعارك بين أنظمة مفتوحة المصدر وأنظمة مملوكة أو مغلقة. يخزن البعض أهم الأدوات المستخدمة لبناء منصات حوسبة الغد ، بينما يخصص البعض الآخر هذه الأدوات. في الآونة الأخيرة ، افتتحت Google نظام تشغيل Android للهواتف المحمولة لتولي هيمنة Apple في الهواتف الذكية.

شاركت العديد من الشركات تقنيات الذكاء الاصطناعي الخاصة بها علانية في الماضي ، بناءً على إصرار الباحثين. لكن تكتيكاتهم تتغير بسبب السباق حول الذكاء الاصطناعي. بدأ هذا التحول العام الماضي عندما أصدرت شركة OpenAI ChatGPT. أذهل النجاح الهائل الذي حققه روبوت الدردشة المستهلكين وأدى إلى زيادة المنافسة في مجال الذكاء الاصطناعي ، حيث تحركت Google بسرعة لدمج المزيد من الذكاء الاصطناعي في منتجاتها واستثمرت Microsoft 13 مليار دولار في OpenAI.

بينما تلقت Google و Microsoft و OpenAI منذ ذلك الحين معظم الاهتمام في مجال الذكاء الاصطناعي ، استثمرت Meta أيضًا في التكنولوجيا لما يقرب من عقد من الزمان. أنفقت الشركة مليارات الدولارات على بناء البرامج والأجهزة اللازمة لتحقيق روبوتات المحادثة وغيرها من “الذكاء الاصطناعي التوليدي” ، والتي تنتج نصوصًا وصورًا ووسائط أخرى بمفردها.

في الأشهر الأخيرة ، عملت Meta بجد خلف الكواليس لنسج سنواتها من البحث والتطوير في مجال الذكاء الاصطناعي في منتجات جديدة. يركز السيد زوكربيرج على جعل الشركة رائدة في مجال الذكاء الاصطناعي ، حيث يعقد اجتماعات أسبوعية حول هذا الموضوع مع فريقه التنفيذي وقادة المنتجات.

كانت أكبر تحركات Meta AI في الأشهر الأخيرة هي إطلاق LLaMA ، وهو ما يُعرف باسم نموذج اللغة الكبير ، أو LLM (LLa تعني “نموذج اللغة الكبيرة Meta AI.”) LLM هي أنظمة تتعلم المهارات من خلال تحليل كميات هائلة من النصوص ، بما في ذلك الكتب ومقالات ويكيبيديا وسجلات الدردشة. تم بناء ChatGPT و Google’s Bard chatbot أيضًا فوق مثل هذه الأنظمة.

تحدد LLM الأنماط في النص الذي يقومون بتحليله وتعلم كيفية إنشاء نص خاص بهم ، بما في ذلك أوراق الفصل الدراسي ، منشورات المدونة ، الشعر ورمز الكمبيوتر. يمكنهم حتى إجراء محادثات معقدة.

في فبراير ، أطلقت Meta علنًا LLaMA ، مما سمح للأكاديميين والباحثين الحكوميين وغيرهم ممن قدموا عناوين بريدهم الإلكتروني بتنزيل الكود واستخدامه لبناء روبوت محادثة خاص بهم.

لكن الشركة ذهبت إلى أبعد من العديد من مشاريع الذكاء الاصطناعي مفتوحة المصدر الأخرى. سمح للناس بتنزيل نسخة من LLaMA بعد أن تم تدريبها على كميات هائلة من النصوص الرقمية المستخرجة من الإنترنت. يسمي الباحثون هذا “تحرير الأوزان” ، في إشارة إلى القيم الرياضية المعينة التي تعلمها النظام أثناء تحليل البيانات.

كان هذا مهمًا لأن تحليل كل تلك البيانات يتطلب عادةً مئات من رقائق الكمبيوتر المتخصصة وعشرات الملايين من الدولارات ، وهي موارد لا تمتلكها معظم الشركات. يمكن لأولئك الذين لديهم الأوزان نشر البرنامج بسرعة وسهولة وبتكلفة زهيدة ، وإنفاق جزء بسيط مما قد يكلفه إنشاء مثل هذه البرامج القوية.

نتيجة لذلك ، اعتقد الكثير في صناعة التكنولوجيا أن Meta قد شكلت سابقة خطيرة. وفي غضون أيام ، أطلق شخص ما أوزان LLaMA على 4chan.

في جامعة ستانفورد ، استخدم الباحثون تقنية Meta الجديدة لبناء نظام الذكاء الاصطناعي الخاص بهم ، والذي تم توفيره على الإنترنت. سرعان ما استخدمه باحث في جامعة ستانفورد يُدعى موسى دومبويا لإنشاء نص إشكالي ، وفقًا للقطات التي شاهدتها صحيفة نيويورك تايمز. في إحدى الحالات ، قدم النظام تعليمات للتخلص من الجثة دون أن يُقبض عليها. كما أنتج مواد عنصرية ، بما في ذلك التعليقات التي أيدت آراء أدولف هتلر.

في محادثة خاصة بين الباحثين ، شاهدتها صحيفة The Times ، قال السيد دومبويا إن توزيع التكنولوجيا على الجمهور سيكون بمثابة “قنبلة يدوية متاحة للجميع في محل بقالة”. ولم يرد على طلب للتعليق.

قام ستانفورد على الفور بإزالة نظام الذكاء الاصطناعي من الإنترنت. قال تاتسونوري هاشيموتو ، الأستاذ في جامعة ستانفورد الذي قاد المشروع ، إن المشروع صُمم لتزويد الباحثين بالتكنولوجيا التي “تلتقط سلوكيات نماذج الذكاء الاصطناعي المتطورة”. “لقد قمنا بإلغاء العرض التوضيحي لأننا أصبحنا قلقين بشكل متزايد بشأن إمكانية إساءة الاستخدام خارج إطار البحث.”

يجادل الدكتور LeCun بأن هذا النوع من التكنولوجيا ليس خطيرًا كما قد يبدو. وقال إن أعدادًا صغيرة من الأفراد يمكنهم بالفعل إنتاج ونشر معلومات مضللة وخطاب يحض على الكراهية. وأضاف أنه يمكن تقييد المواد السامة بشدة من قبل الشبكات الاجتماعية مثل فيسبوك.

قال: “لا يمكنك منع الناس من خلق هراء أو معلومات خطيرة أو أي شيء آخر”. “لكن يمكنك منعها من الانتشار.”

بالنسبة إلى Meta ، يمكن لعدد أكبر من الأشخاص الذين يستخدمون برامج مفتوحة المصدر أن يوازنوا ساحة اللعب لأنها تتنافس مع OpenAI و Microsoft و Google. إذا قام كل مطور برمجيات في العالم ببناء برامج باستخدام أدوات Meta ، فيمكن أن يساعد ذلك في ترسيخ الشركة للموجة التالية من الابتكار ، ودرء عدم الملاءمة المحتملة.

أشار الدكتور LeCun أيضًا إلى التاريخ الحديث لشرح سبب التزام Meta بمصادر مفتوحة لتكنولوجيا الذكاء الاصطناعي. وقال إن تطور الإنترنت للمستهلك كان نتيجة معايير مجتمعية مفتوحة ساعدت في بناء شبكة مشاركة المعرفة الأسرع والأكثر انتشارًا التي شهدها العالم على الإطلاق.

قال: “يكون التقدم أسرع عندما يكون مفتوحًا”. “لديك نظام بيئي أكثر حيوية حيث يمكن للجميع المساهمة.”


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading