Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
صناعة وابتكار

كاليفورنيا تبني المستقبل للخير والشر. ماذا بعد؟


في حين أن فرقة العمل لم تحدد رقمًا دقيقًا حول كيفية تعويض أحفاد العبيد عن الإفراط في الاستيلاء والسجن الجماعي والتمييز في مجال الإسكان ، فإن الاقتصاديين الذين ينصحونهم يقدرون أن الخسائر التي تكبدها السكان السود في الولاية قد تصل إلى مئات المليارات. من الدولارات. لم يتم تحديد ما إذا كان سيتم الموافقة على التعويض بالفعل.

تظهر محادثة التعويضات أن كاليفورنيا لديها قدرة فريدة على حساب تاريخها المضطرب. لكن هذا التفكير لا يمتد دائمًا إلى المستقبل. يتم استخدام أنظمة الذكاء الاصطناعي لتعديل المحتوى على وسائل التواصل الاجتماعي ، وتقييم تطبيقات الكلية ، وتمشيط السير الذاتية للتوظيف ، وإنشاء صور وأعمال فنية مزيفة ، وتفسير بيانات الحركة التي تم جمعها من المنطقة الحدودية ، وتحديد المشتبه بهم في التحقيقات الجنائية. نماذج اللغة مثل ChatGPT ، التي صنعتها شركة OpenAI ومقرها سان فرانسيسكو ، جذبت أيضًا الكثير من الاهتمام لإمكانية تعطيل مجالات مثل التصميم والقانون والتعليم.

ولكن إذا كان من الممكن قياس نجاح الذكاء الاصطناعي من خلال تقييمات بمليارات الدولارات واكتتابات عامة مربحة ، فإن إخفاقاته يتحملها الناس العاديون. أنظمة الذكاء الاصطناعي ليست محايدة ؛ يتم تدريبهم على مجموعات البيانات الكبيرة التي تشمل ، على سبيل المثال ، المواد الاستغلالية جنسيًا أو البيانات الشرطية التمييزية. ونتيجة لذلك ، فإنها تتكاثر وتضخم أسوأ تحيزات مجتمعنا. على سبيل المثال ، برنامج التعرف على العرق المستخدم في تحقيقات الشرطة بشكل روتيني يخطئ في التعرف على الأشخاص ذوي البشرة السمراء والسود. من المرجح أن يرفض مقرضو الرهن العقاري القائم على الذكاء الاصطناعي قروض المنازل للأشخاص الملونين ، مما يساعد على إدامة عدم المساواة في الإسكان.

قد تبدو هذه لحظة يمكننا فيها تطبيق التفكير التاريخي على مسألة التكنولوجيا ، حتى نتمكن من منع حدوث الظلم الذي نتج عن تغييرات سابقة في النموذج من الحدوث مرة أخرى. في أبريل ، قدم اثنان من المشرعين مشروع قانون في مجلس الولاية يحاول حظر التحيز الخوارزمي. أدرجت نقابة الكتاب الأمريكية ، التي هي حاليًا في إضراب ، قيودًا على استخدام الذكاء الاصطناعي في مطالبها. تأتي مقاومة الإفراط أيضًا من داخل صناعة التكنولوجيا. قبل ثلاث سنوات ، طُردت Timnit Gebru ، رئيسة فريق الذكاء الاصطناعي الأخلاقي في Google ، بعد أن دقت ناقوس الخطر بشأن مخاطر النماذج اللغوية مثل GPT-3. لكن الآن حتى المديرين التنفيذيين في مجال التكنولوجيا أصبحوا حذرين: في شهادته أمام مجلس الشيوخ ، أقر سام التمان ، الرئيس التنفيذي لشركة OpenAI ، بأن أنظمة الذكاء الاصطناعي بحاجة إلى التنظيم.

السؤال الذي نواجهه مع كل من التعويضات والذكاء الاصطناعي في النهاية لا يختلف كثيرًا عن السؤال الذي نشأ عندما انطلق راهب فرنسيسكاني في كامينو ريال عام 1769. إنه ليس كثيرًا “كيف سيبدو المستقبل؟” – على الرغم من أن هذا سؤال مثير – لكن “من سيكون له الحق في المستقبل؟ من الذي يمكن أن يخدمه الإصلاح الاجتماعي أو التكنولوجيا الجديدة ، ومن قد يتضرر؟ ” قد يتم تحديد الإجابة في كاليفورنيا.


ليلى اللامي هو مؤلف أربع روايات ، بما في ذلك “الأمريكيون الآخرون”. أحدث كتاب لها هو عمل غير خيالي ، “المواطنون الشرطيون”. تعيش في لوس أنجلوس. بنيامين مرة رسام ورسام كاريكاتير ومدير فني. تم ترشيح رسوماته لـ “غرباء الطريق: كوابيس الحمضية” لمجموعة نوميرو.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى