نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “تسرب نموذج لغة الذكاء الاصطناعى القوى من Meta عبر الإنترنت”
تم إنشاء نموذج الذكاء الاصطناعى Meta’s LLaMA لمساعدة الباحثين ولكن تم تسريبه في 4chan بعد أسبوع من الإعلان عنه هذا ما ذكره موقع تحدثت The Verge.
قبل أسبوعين، أعلنت Meta عن أحدث نموذج للغة AI: LLaMA الذكاء الاصطناعى، على الرغم من أنه لا يمكن الوصول إليه للجمهور مثل ChatGPT من OpenAI أو Bing من Microsoft ، إلا أن LLaMA هي مساهمة Meta في زيادة تقنية لغة الذكاء الاصطناعي التي تعد بطرق جديدة للتفاعل مع أجهزة الكمبيوتر الخاصة بنا بالإضافة إلى الأخطار الجديدة.
ولم تطلق Meta LLaMA كروبوت دردشة عام (على الرغم من أن مالك Facebook يقوم ببناء هذه أيضًا) ولكن كحزمة مفتوحة المصدر يمكن لأي شخص في مجتمع AI طلب الوصول إليها.
وصرحت الشركة إن النية هي “إضفاء المزيد من الديمقراطية على الوصول” إلى الذكاء الاصطناعي لتحفيز البحث في مشاكلها حيث تستفيد Meta إذا كانت هذه الأنظمة أقل تعقيدًا ام لا، لذلك سيسعد إنفاق الأموال لإنشاء النموذج وتوزيعه على الآخرين لتحري الخلل وإصلاحه.
قالت الشركة في إحدى المدونات: “حتى مع كل التطورات الحديثة في نماذج اللغات الكبيرة، لا يزال الوصول الكامل إلى البحث محدودًا بسبب الموارد المطلوبة لتدريب وتشغيل مثل هذه النماذج الكبيرة”، “أدى هذا الوصول المقيد إلى الحد من قدرة الباحثين على فهم كيف ولماذا تعمل هذه النماذج اللغوية الكبيرة، مما أعاق التقدم في الجهود المبذولة لتحسين قوتها وتخفيف المشكلات المعروفة، مثل التحيز والسمية وإمكانية توليد معلومات مضللة.”
ومع ذلك، بعد أسبوع واحد فقط من بدء Meta إرسال طلبات الوصول إلى LLaMA ، تم تسريب النموذج عبر الإنترنت، في الثالث من مارس ، تم نشر سيل من النظام قابل للتنزيل على 4chan وانتشر منذ ذلك الحين عبر مجتمعات الذكاء الاصطناعي المختلفة، مما أثار جدلاً حول الطريقة الصحيحة لمشاركة أحدث الأبحاث في وقت التغير التكنولوجي السريع.
يقول البعض إن التسرب سيكون له عواقب مقلقة ويلومون شركة Meta على توزيع التكنولوجيا بحرية كبيرة، غرد الباحث في الأمن السيبراني جيفري لاديش على تويتر بعد انتشار الأخبار ، “استعد للكثير من الرسائل غير المرغوب فيها الشخصية ومحاولات التصيد”. “المصدر المفتوح لهذه النماذج كان فكرة سيئة.”
البعض الآخر أكثر تفاؤلاً، بحجة أن الوصول المفتوح ضروري لتطوير ضمانات لأنظمة الذكاء الاصطناعي وأن النماذج اللغوية المعقدة بالمثل قد تم الإعلان عنها بالفعل دون التسبب في ضرر كبير.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.