اخبار

الحدود التالية للذكاء الاصطناعي العسكري: كمبيوتر عملك


ربما يكون من الصعب لتتخيل أنك هدف للتجسس ، لكن التجسس على الموظفين هو الحدود التالية للذكاء الاصطناعي العسكري. تقنيات المراقبة المألوفة للديكتاتوريات الاستبدادية قد أعيد استخدامها الآن لاستهداف العمال الأمريكيين.

على مدار العقد الماضي ، ظهرت بضع عشرات من الشركات لبيع اشتراكات صاحب العمل لخدمات مثل “استخبارات المصادر المفتوحة” و “إدارة السمعة” و “تقييم التهديدات الداخلية” – وهي أدوات غالبًا ما تم تطويرها في الأصل بواسطة مقاولي الدفاع لاستخدامات الاستخبارات. مع توفر التعلم العميق ومصادر البيانات الجديدة على مدى السنوات القليلة الماضية ، أصبحت هذه الأدوات أكثر تعقيدًا بشكل كبير. معهم ، قد يكون رئيسك قادرًا على استخدام تحليلات البيانات المتقدمة لتحديد تنظيم العمل ، والمتسربين الداخليين ، ونقاد الشركة.

ليس سراً أن النقابات تتم مراقبتها بالفعل من قبل شركات كبيرة مثل أمازون. لكن توسيع وتطبيع الأدوات لتعقب العمال لم يلق سوى القليل من التعليقات ، على الرغم من أصولها المشؤومة. إذا كانت قوية كما تدعي أنها – أو حتى تتجه في هذا الاتجاه – فنحن بحاجة إلى محادثة عامة حول الحكمة من نقل هذه الذخائر المعلوماتية إلى أيادي خاصة. كان الهدف من الذكاء الاصطناعي على المستوى العسكري هو استهداف أعدائنا الوطنيين ، تحت سيطرة الحكومات الديمقراطية المنتخبة اسميًا ، مع وجود ضمانات لمنع استخدامه ضد المواطنين. يجب أن نشعر جميعًا بالقلق من فكرة أن نفس الأنظمة يمكن الآن نشرها على نطاق واسع من قبل أي شخص قادر على الدفع.

على سبيل المثال ، بدأت FiveCast كشركة ناشئة لمكافحة الإرهاب تبيع للجيش ، لكنها حولت أدواتها إلى الشركات وجهات تطبيق القانون ، والتي يمكنها استخدامها لجمع وتحليل جميع أنواع البيانات المتاحة للجمهور ، بما في ذلك منشوراتك على وسائل التواصل الاجتماعي . بدلاً من مجرد حساب الكلمات الرئيسية ، تتفاخر FiveCast بأن “الأمن التجاري” وعروضها الأخرى يمكنها تحديد شبكات الأشخاص وقراءة النص داخل الصور وحتى اكتشاف الكائنات والصور والشعارات والعواطف والمفاهيم داخل محتوى الوسائط المتعددة. تهدف أداة “إدارة مخاطر سلسلة التوريد” الخاصة بها إلى توقع الاضطرابات المستقبلية ، مثل الإضرابات ، للشركات.

وبالتالي ، يمكن استخدام أدوات تحليل الشبكة التي تم تطويرها لتحديد الخلايا الإرهابية لتحديد منظمي العمل الرئيسيين بحيث يمكن لأصحاب العمل فصلهم بشكل غير قانوني قبل تشكيل النقابة. قد يدفع الاستخدام القياسي لهذه الأدوات أثناء التوظيف أصحاب العمل إلى تجنب تعيين هؤلاء المنظمين في المقام الأول. ويمكن الآن لاستراتيجيات التقييم الكمي للمخاطر المصممة لتحذير الأمة من الهجمات الوشيكة أن تحدد قرارات الاستثمار ، مثل ما إذا كان سيتم سحب الاستثمارات من المناطق والموردين الذين يقدر أن لديهم قدرة عالية على تنظيم العمالة.

ليس من الواضح ما إذا كانت هذه الأدوات يمكن أن ترقى إلى مستوى الضجيج الخاص بها. على سبيل المثال ، تحدد طرق تحليل الشبكة المخاطر من خلال الاقتران ، مما يعني أنه يمكن وضع علامة عليك لمجرد متابعة صفحة أو حساب معين. يمكن أيضًا خداع هذه الأنظمة من خلال المحتوى المزيف ، والذي يتم إنتاجه بسهولة على نطاق واسع باستخدام الذكاء الاصطناعي التوليدي الجديد. وتقدم بعض الشركات تقنيات التعلم الآلي المتطورة ، مثل التعلم العميق ، لتحديد المحتوى الذي يبدو غاضبًا ، والذي يُفترض أنه يشير إلى الشكاوى التي قد تؤدي إلى تكوين نقابات ، على الرغم من أن اكتشاف المشاعر قد ثبت أنه متحيز ويستند إلى افتراضات خاطئة.

لكن قدرات هذه الأنظمة تنمو بسرعة. تعلن الشركات أنها ستدرج قريبًا تقنيات الذكاء الاصطناعي من الجيل التالي في أدوات المراقبة الخاصة بها. تعد الميزات الجديدة بجعل استكشاف مصادر البيانات المتنوعة أسهل من خلال التحفيز ، ولكن يبدو أن الهدف النهائي هو نظام مراقبة روتيني شبه آلي يعمل على خرق النقابات.

علاوة على ذلك ، تعمل خدمات الاشتراك هذه حتى لو لم تعمل. قد لا يهم ما إذا كان الموظف الذي تم اعتباره مسببًا للمتاعب ساخطًا حقًا ؛ لا يزال بإمكان المديرين التنفيذيين وأمن الشركات التصرف بناءً على الاتهام والانتقام بشكل غير عادل ضدهم. من المستحيل حاليًا التحقق من دقة الأحكام المجمعة الغامضة “لعواطف” القوى العاملة أو الصورة العامة للشركة. ومن المحتمل أن يكون لمجرد وجود هذه الأنظمة تأثير مخيف على السلوكيات المحمية قانونًا ، بما في ذلك تنظيم العمالة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى