اخبار

تشكل إضافات ChatGPT مخاطر أمنية


على مدى ثمانية أشهر ، أعجبت ChatGPT ملايين الأشخاص بقدرتها على إنشاء نص ذي مظهر واقعي ، وكتابة كل شيء من القصص إلى الكود. لكن الشات بوت ، الذي طورته شركة OpenAI ، لا يزال محدودًا نسبيًا فيما يمكنه القيام به.

يأخذ نموذج اللغة الكبيرة (LLM) “المطالبات” من المستخدمين التي يستخدمها لإنشاء نص مرتبط ظاهريًا. يتم إنشاء هذه الردود جزئيًا من البيانات المأخوذة من الإنترنت في سبتمبر 2021 ، ولا تسحب بيانات جديدة من الويب. أدخل المكونات الإضافية ، التي تضيف وظائف ولكنها متاحة فقط للأشخاص الذين يدفعون مقابل الوصول إلى GPT-4 ، الإصدار المحدث من نموذج OpenAI.

منذ أن أطلقت OpenAI المكونات الإضافية لـ ChatGPT في آذار (مارس) ، تسابق المطورون لإنشاء ونشر المكونات الإضافية التي تسمح لـ chatbot بفعل المزيد. تتيح لك المكونات الإضافية الحالية البحث عن الرحلات الجوية والتخطيط للرحلات ، وجعلها تتيح لـ ChatGPT الوصول إلى النصوص الموجودة على مواقع الويب وفي المستندات وفي مقاطع الفيديو وتحليلها. تعد المكونات الإضافية الأخرى أكثر تخصصًا ، حيث تعدك بالقدرة على الدردشة باستخدام دليل مالك Tesla أو البحث في الخطابات السياسية البريطانية. يوجد حاليًا أكثر من 100 صفحة من المكونات الإضافية المدرجة في متجر المكونات الإضافية ChatGPT.

لكن وسط انفجار هذه الامتدادات ، يقول باحثو الأمن إن هناك بعض المشكلات في طريقة عمل المكونات الإضافية ، والتي يمكن أن تعرض بيانات الأشخاص للخطر أو يحتمل أن يسيء المتسللون الخبثاء استخدامها.

يوهان ريبرغر ، مدير فريق أحمر في Electronic Arts وباحث أمني ، كان يوثق المشكلات المتعلقة بمكونات ChatGPT الإضافية في أوقات فراغه. قام الباحث بتوثيق كيف يمكن استخدام مكونات ChatGPT الإضافية لسرقة محفوظات الدردشة لشخص ما ، والحصول على معلومات شخصية ، والسماح بتنفيذ التعليمات البرمجية عن بُعد على جهاز شخص ما. لقد كان يركز في الغالب على المكونات الإضافية التي تستخدم OAuth ، وهو معيار ويب يسمح لك بمشاركة البيانات عبر الحسابات عبر الإنترنت. يقول Rehberger إنه كان على اتصال بشكل خاص مع حوالي ستة من مطوري المكونات الإضافية لإثارة المشكلات ، وقد اتصل بـ OpenAI عدة مرات.

يقول Rehberger: “لا يمكن لـ ChatGPT الوثوق بالمكوِّن الإضافي”. “لا يمكن أن يثق بشكل أساسي في ما يأتي من المكون الإضافي لأنه يمكن أن يكون أي شيء.” يمكن أن يحاول موقع ويب أو مستند ضار ، من خلال استخدام مكون إضافي ، تشغيل هجوم حقن سريع ضد نموذج اللغة الكبيرة (LLM). أو يمكن أن يدخل حمولات ضارة ، كما يقول ريبرغر.

يقول الباحث إنه من المحتمل أيضًا أن تتم سرقة البيانات من خلال تزوير طلبات المكونات الإضافية. يمكن أن يشتمل موقع الويب على حقنة فورية تجعل ChatGPT يفتح مكونًا إضافيًا آخر ويقوم بإجراءات إضافية ، والتي أظهرها من خلال إثبات المفهوم. يسمي الباحثون هذا “التسلسل” ، حيث يستدعي أحد المكونات الإضافية الأخرى للعمل. يقول Rehberger: “لا توجد حدود أمنية حقيقية” داخل مكونات ChatGPT الإضافية. “لم يتم تحديده بشكل جيد للغاية ، ما هو الأمن والثقة ، ما هي المسؤوليات الفعلية [are] لكل صاحب مصلحة “.

منذ إطلاقها في آذار (مارس) ، كانت مكونات ChatGPT الإضافية في مرحلة تجريبية – وهي في الأساس نسخة تجريبية مبكرة. عند استخدام المكونات الإضافية في ChatGPT ، يحذر النظام من أن الناس يجب أن يثقوا في المكون الإضافي قبل استخدامه ، وأنه لكي يعمل المكون الإضافي ، قد يحتاج ChatGPT إلى إرسال محادثتك وبيانات أخرى إلى المكون الإضافي.

يقول نيكو فيليكس ، المتحدث باسم OpenAI ، إن الشركة تعمل على تحسين ChatGPT ضد “الثغرات” التي يمكن أن تؤدي إلى إساءة استخدام نظامها. يقوم حاليًا بمراجعة المكونات الإضافية قبل تضمينها في متجرها. في منشور مدونة في يونيو ، قالت الشركة إنها شاهدت بحثًا يوضح كيف أن “البيانات غير الموثوق بها من مخرجات الأداة يمكن أن توجه النموذج لأداء إجراءات غير مقصودة”. وهذا يشجع المطورين على جعل الأشخاص ينقرون على أزرار التأكيد قبل تنفيذ الإجراءات ذات “التأثير الواقعي” ، مثل إرسال بريد إلكتروني ، بواسطة ChatGPT.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى