Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أداوت وتكنولوجيا

أعضاء مجلس الشيوخ يريدون استثناء الذكاء الاصطناعي من القسم 230 من الحماية


يتعاون اثنان من أعضاء مجلس الشيوخ الأمريكيين عبر الممر لمحاولة فصل الذكاء الاصطناعي عن بقية الإنترنت. قدم السناتور جوش هاولي وريتشارد بلومنتال تشريع جديد التي ، إذا تم إقرارها ، ستعفي الذكاء الاصطناعي من الحماية بموجب المادة 230. من شأن مشروع القانون المقترح أن يترك شركات الذكاء الاصطناعي مسؤولة عن الأخطاء التي غالبًا ما تكون غير صحيحة (قد يتم تحديده لاحقًا بشكل تشهيري) المحتوى الذي تنتجه النماذج اللغوية الكبيرة وأدوات الذكاء الاصطناعي الأخرى.

يأتي هذا الإجراء ، الذي يحمل عنوان “No Section 230 Immunity for AI Act” ، في الوقت الذي تتم فيه مناقشة مسألة من يتحمل المسؤولية عن إبداعات الذكاء الاصطناعي – دون إجابة قانونية واضحة حتى الآن.

“يجب إجبار شركات الذكاء الاصطناعي على تحمل المسؤولية عن قرارات الأعمال أثناء تطوير منتجاتها – دون أي درع قانوني بموجب المادة 230” ، هذا ما قاله النائب الديمقراطي بلومنتال من ولاية كونيكتيكت في بيان صحفي. وأضاف هاولي ، الجمهوري من ولاية ميسوري ، “لا يمكننا أن نرتكب نفس الأخطاء مع الذكاء الاصطناعي التوليدي كما فعلنا مع Big Tech في القسم 230 … يجب أن تخضع الشركات للمساءلة”.

كان بلومنتال قد ألمح نحوه تشريعه الجديد خلال جلسة اللجنة القضائية في مجلس الشيوخ سمع في العالم الحقيقي تأثيرات الذكاء الاصطناعي على حقوق الإنسان في وقت سابق من هذا الأسبوع. خلال استجوابه ، زعم بلومنتال أن شركات وسائل التواصل الاجتماعي قد استفادت من تفسير واسع للغاية للقسم 230 وجادل بأنه من المهم أن لا يكرر الكونجرس هذا السيناريو لعصر الذكاء الاصطناعي التوليدي الناشئ.

قال بلومنتال: “نحتاج إلى توضيح القسم 230 لنقول إنه لا ينطبق على الذكاء الاصطناعي لأننا إذا لم نفعل ذلك ، فإننا نعيش في عالم جديد تمامًا من الأذى”.

سيعدل التشريع الجديد المقترح نفسه 230 بالنص التالي:

لا يوجد تأثير على المطالبات المتعلقة بالذكاء الاصطناعي التوليدي – لا شيء في هذا القسم … يجب تفسيره على أنه يضعف أو يحد من أي مطالبة في دعوى مدنية أو تهمة في دعوى جنائية مرفوعة بموجب القانون الفيدرالي أو قانون الولاية ضد مزود خدمة الكمبيوتر التفاعلية إذا كان السلوك الكامن وراء المطالبة أو الرسوم ينطوي على استخدام أو توفير الذكاء الاصطناعي التوليدي بواسطة خدمة الكمبيوتر التفاعلية.

القسم 230 من قانون آداب الاتصالات، على نطاق واسع القانون التأسيسي للإنترنت. هو – هي يسمح لمواقع التواصل الاجتماعي ومحركات البحث والمنتديات وأقسام التعليقات بالتواجد بدون منصات أو مزودي خدمة الإنترنت الذين يتم تكليفهم بمهامهم المحتوى التي ينشرها مستخدموها. من نواح كثيرة ، رغم أنها معيبة ، فهي كذلك ال السياسة التي تتيح أي درجة من حرية التعبير عبر الإنترنت وهو مهم.

لكن في السنوات الأخيرة ، واجهت معارضة من السياسيين من كلا الحزبين – إلى حد كبير على أساس كيفية حمايتها لشركات التكنولوجيا الكبرى مع انتشار المعلومات المضللة على الإنترنت. قال الرئيس بايدن مرارا يريد إصلاح اللائحة. في غضون ذلك ، بذل المشرعون الجمهوريون (وبعض الديمقراطيين) جهودًا عديدة لإلغاء القاعدة بالكامل. السناتور هاولي ، على وجه الخصوص ، لقد حان 230 من قبل. (في هذه المحاولة الأخيرة ، يمكن أن يستفيد من السؤال المفتوح حول مساءلة الذكاء الاصطناعي كإستراتيجية لإضعاف الدرع الواقي 230 بشكل عام).

بغض النظر عن كل ما تم الحصول عليه من القسم 230 ، المحكمة العليا اختارت مؤخرًا الاحتفاظ بهذا الحكم متصل. في مايو ، رفضت SCOTUS قضية رئيسية ورفضت التفكير في هذه القضية. ولكن لمجرد أن 230 هو قانون الأرض ، فهذا لا يعني أنه ينطبق بالضرورة على الذكاء الاصطناعي. إذا سألت الأشخاص الذين كتبوا سياسة عام 1996 الأصلية ، فلن يحدث ذلك.

السناتور رون وايدن مع رئيس لجنة الأوراق المالية والبورصات السابق وعضو الكونغرس ، كريس كوكس ، الذي شارك في تأليف القسم 230 جادل لا ينبغي أن ينطبق الحكم على النص أو الفيديو أو الصور التي تبثها برامج مثل ChatGPT أو DALL-E من OpenAI. قال Wyden في بيان: “القسم 230 يتعلق بحماية المستخدمين والمواقع لاستضافة خطاب المستخدمين وتنظيمه” و “لا علاقة له بحماية الشركات من عواقب أفعالهم ومنتجاتهم”. لرويترز حول الموضوع مرة أخرى في أبريل.

قد يكون التشريع الذي اقترحه هاولي وبلومنتال أحد السبل لترسيخ استثناء للذكاء الاصطناعي في القانون. رغم ذلك ، يمكن أن يكون الفعل غير ضروري تمامًا ، وفقًا لـ جيف كوسيف، أستاذ قانون الأمن السيبراني في الأكاديمية البحرية الأمريكية ومؤلف كتاب 2019 عن القسم 230 ، الكلمات الست والعشرون التي خلقت الإنترنت. قال Kosseff عن الفاتورة المعلقة في مكالمة هاتفية مع Gizmodo: “لا نعرف ما إذا كان هذا ضروريًا”. واستشهد بموقف وايدن وكوكس وأشار إلى أنه لا يوجد اختبار قانوني لإظهار الموقف الذي قد تتخذه المحاكم الأمريكية.

ممنوح ، القسم 230 يحمي فقط أوضح Kosseff مقدمي الخدمات والمنصات عبر الإنترنت في حالة المحتوى الذي لا يساهمون فيه بشكل مباشر. وهناك حجة يجب طرحها بأن شركات الذكاء الاصطناعي “تساهم” بطريقة ما في كل ما تنتجه هذه البرامج.

سواء كان ذلك من خلال التشريع ، أو طريق آخر ، إذا كان القسم 230 لا ينطبق على محتوى الذكاء الاصطناعي ، فسيؤدي ذلك إلى تركه كله وأوضح كوسيف أنه يخضع لقوانين التشهير القائمة. في وقت سابق من هذا الشهر ، مذيع إذاعي جورجيا رفعت أول قضية تشهير على الإطلاق ضد شركة OpenAI عبر ChatGPT يُزعم أنه “يهلوس” وينتج نصًا كاذبًا بأن مضيف الراديو قد اتُهم باختلاس الأموال. البعض الآخر هدد بعمل مماثل. لم تسفر أي من هذه الادعاءات عن حكم.

إن الانفتاح الرسمي على صانعي الذكاء الاصطناعي لتحمل المسؤولية عن كل ما تصنعه نماذجهم من شأنه أن يسحق الصناعة المزدهرة حديثًا. عندما دعا مؤسسو Sam Altman و OpenAI للتنظيم الذكاء الاصطناعي ، إعفاء رسمي من 230 من الواضح أنه لم يكن ما كانوا يسعون وراءه.

من وجهة نظر كوسيف ، يحتاج شخص ما إلى تحمل مسؤولية الذكاء الاصطناعي. قال: “إذا كان هناك شيء يثق به الناس بشكل روتيني للحصول على معلومات وكان آلة تشهير ، فيجب أن يكون شخص ما مسؤولاً عن ذلك”.

ومع ذلك – مثلما قد لا تكون الحماية الشاملة تحت 230 منطقية بالنسبة للذكاء الاصطناعي ، كما هي – قد لا تكون قوانين التشهير هي الطريقة الصحيحة التي يمكن من خلالها كبح جماح التكنولوجيا سريعة النمو. لكي يربح المدعي قضية تشهير ، يجب عليه عمومًا إثبات أن بيانًا صدر مع العلم أو الاستهتار المتهور بزيفه. ولكن هل يستطيع الذكاء الاصطناعي “معرفة” أي شيء؟ وأشار كوسيف إلى أن “الحقد الفعلي يتعلق بالحالة الذهنية”. “كيف تُظهر ذلك لبرنامج الذكاء الاصطناعي؟”

ثم هناك التفاعل بين المستخدم والأداة. تولد برامج الذكاء الاصطناعي بشكل روتيني الأكاذيب ويمكن استخدامها بسهولة لإنشاء محتوى مسيء أو ضار (على سبيل المثال التزييف العميق الجنسي). مما لا شك فيه ، أن تلك المشاكل المتكررة هي على الأقل جزئيًا نتيجة لكودهم الخلفي والتدريب – الذي تحدده الشركات أو المطورون الذين يبيعون التكنولوجيا. لكن النماذج اللغوية الكبيرة ومولدات الصور / الفيديو تنتج فقط مخرجاتها بناءً على طلب من البشر الذين يكتبون في الموجه. إذن من يجب أن يتحمل اللوم عندما تسوء الأمور؟

إنها مشكلة معقدة لم يتم حلها لتحديد الكثير حول مستقبل الذكاء الاصطناعي والإنترنت. إذا لم تكن هناك أية إجابات في الوقت الحالي ، على الأقل ، من وجهة نظر كوسيف ، فهو “سؤال رائع حقًا”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى