تهدف PrivateGPT من PrivateAI إلى مكافحة مخاوف الخصوصية في ChatGPT

تهدف PrivateGPT من PrivateAI إلى مكافحة مخاوف الخصوصية في ChatGPT


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


أعلن اليوم مزود خصوصية البيانات Private AI عن إطلاق PrivateGPT ، وهي “طبقة خصوصية” لنماذج اللغات الكبيرة (LLMs) مثل ChatGPT من OpenAI. تم تصميم الأداة الجديدة لتنقيح المعلومات الحساسة ومعلومات التعريف الشخصية (PII) تلقائيًا من مطالبات المستخدم.

تستخدم PrivateAI نظام AI الخاص بها لتنقيح أكثر من 50 نوعًا من PII من مطالبات المستخدم قبل إرسالها إلى ChatGPT ، وإعادة ملء PII ببيانات العنصر النائب للسماح للمستخدمين بالاستعلام عن LLM دون تعريض البيانات الحساسة لـ OpenAI.

زيادة التدقيق في ChatGPT

يأتي هذا الإعلان في الوقت الذي بدأ فيه التدقيق في ممارسات حماية بيانات OpenAI في الارتفاع ، حيث حظرت إيطاليا مؤقتًا ChatGPT بسبب مخاوف تتعلق بالخصوصية ، وأطلق مفوض الخصوصية الفيدرالي الكندي تحقيقًا منفصلاً في المنظمة بعد تلقي شكوى تزعم “جمع واستخدام والكشف عن بيانات شخصية. المعلومات دون موافقة “.

قالت باتريشيا ثاين ، الشريكة المؤسس والرئيس التنفيذي لشركة Private AI في البيان الصحفي للإعلان: “لن يكون للذكاء الاصطناعي التوليدي مساحة داخل مؤسساتنا ومجتمعاتنا إلا إذا توفرت الأدوات المناسبة لجعله آمنًا للاستخدام”.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

“لا يتم استبعاد ChatGPT من قوانين حماية البيانات مثل GDPR أو HIPAA أو PCI DSS أو CPPA. قال ثاين إن اللائحة العامة لحماية البيانات ، على سبيل المثال ، تتطلب من الشركات الحصول على موافقة لجميع استخدامات البيانات الشخصية لمستخدميها ، وكذلك الامتثال للطلبات التي يجب نسيانها. “من خلال مشاركة المعلومات الشخصية مع مؤسسات تابعة لجهات خارجية ، يفقدون السيطرة على كيفية تخزين هذه البيانات واستخدامها ، مما يعرض أنفسهم لخطر انتهاك الامتثال.”

تقنيات إخفاء هوية البيانات ضرورية

ومع ذلك ، فإن PrivateAI ليست المنظمة الوحيدة التي صممت حلاً لتقوية قدرات حماية بيانات OpenAI. في نهاية شهر مارس ، أعلن موفر الأمان السحابي Cado Security عن إطلاق Masked-AI ، وهي أداة مفتوحة المصدر مصممة لإخفاء البيانات الحساسة المقدمة إلى GPT-4.

مثل PrivateGPT ، يقوم Masked-AI بإخفاء البيانات الحساسة مثل الأسماء وأرقام بطاقات الائتمان وعناوين البريد الإلكتروني وأرقام الهواتف وروابط الويب وعناوين IP واستبدالها بعناصر نائبة قبل إرسال طلب منقح إلى OpenAI API.

سويًا ، تبرز محاولات PrivateAI و Cado Security لتعزيز إمكانات الخصوصية الإضافية في LLMs الراسخة أن تقنيات إخفاء هوية البيانات ستكون ضرورية للمؤسسات التي تتطلع إلى الاستفادة من حلول مثل ChatGPT مع تقليل تعرضها لأطراف ثالثة.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *