Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
علوم تكنولوجية

استطلاع جديد: معظم الناس لا يثقون فى الذكاء الاصطناعي ويريدون التنظيم

نقدم لكم عبر موقع “نص كم” علوم تكنولوجية محدثة باستمرار نترككم مع “استطلاع جديد: معظم الناس لا يثقون فى الذكاء الاصطناعي ويريدون التنظيم”

وجدت دراسة جديدة أن معظم البالغين الأمريكيين لا يثقون في أدوات الذكاء الاصطناعي مثل ChatGPT ويشعرون بالقلق بشأن احتمال إساءة استخدامها ، ويشير إلى أن الفضائح المتكررة المحيطة بالبرامج الضارة والمعلومات المضللة التي أنشأها الذكاء الاصطناعي لها أثرها، وأن الجمهور قد يتقبل بشكل متزايد أفكار تنظيم الذكاء الاصطناعي.


 


ويزعم الاستطلاع الذي أجرته شركة MITRE واستطلاع هاريس أن 39% فقط من 2063 بالغًا أمريكيًا شملهم الاستطلاع يعتقدون أن تقنية الذكاء الاصطناعي اليوم “آمنة ومأمونة”، وهو انخفاض بنسبة 9% عما كانت عليه عندما أجرت الشركتان استطلاعهما الأخير في نوفمبر 2022.


 


وعندما يتعلق الأمر بمخاوف محددة، كان 82% من الأشخاص قلقين بشأن التزييف العميق و”المحتوى الاصطناعي الآخر المصمم هندسيًا”، بينما كان 80% يخشون كيفية استخدام هذه التكنولوجيا في هجمات البرامج الضارة، وأعرب غالبية المشاركين في الاستطلاع عن قلقهم بشأن استخدام الذكاء الاصطناعي في سرقة الهوية، وجمع البيانات الشخصية، واستبدال البشر في مكان العمل ، وغير ذلك الكثير.


 


وفي الواقع، يشير الاستطلاع إلى أن الناس أصبحوا أكثر حذراً من تأثير الذكاء الاصطناعي على مختلف المجموعات السكانية، وفي حين أن 90% من جيل الطفرة السكانية يشعرون بالقلق بشأن تأثير التزييف العميق، فإن 72% من أعضاء الجيل Z يشعرون بالقلق أيضًا بشأن نفس الموضوع، وفقت لتقرير ديجيتال تريند.  


 


وعلى الرغم من أن الشباب أقل تشككا في الذكاء الاصطناعي وأكثر ميلا لاستخدامه في حياتهم اليومية إلا أن المخاوف تظل مرتفعة في عدد من المجالات، بما في ذلك ما إذا كان ينبغي للصناعة أن تفعل المزيد لحماية الجمهور وما إذا كان ينبغي تنظيم الذكاء الاصطناعي.


 

ومن المحتمل أن يكون الدافع وراء انخفاض الدعم لأدوات الذكاء الاصطناعي هو أشهر من القصص السلبية في الأخبار المتعلقة بأدوات الذكاء الاصطناعي التوليدية والخلافات التي تواجه ChatGPT وBing Chat ومنتجات أخرى، ومع تزايد قصص المعلومات الخاطئة، وانتهاكات البيانات، والبرامج الضارة، يبدو أن الجمهور أصبح أقل تقبلاً لمستقبل الذكاء الاصطناعي الذي يلوح في الأفق.


 


وعندما سُئلوا في استطلاع MITRE-Harris عما إذا كان ينبغي للحكومة أن تتدخل لتنظيم الذكاء الاصطناعي، كان 85% من المشاركين يؤيدون الفكرة – بزيادة 3% عن المرة السابقة، واتفق نفس 85% من المشاركين مع العبارة القائلة بأن “جعل الذكاء الاصطناعي آمنًا ومأمونًا للاستخدام العام يجب أن يكون جهدًا وطنيًا عبر الصناعة والحكومة والأوساط الأكاديمية”، بينما رأى 72% أن “الحكومة الفيدرالية يجب أن تركز المزيد من الوقت والتمويل على الذكاء الاصطناعي”. البحث والتطوير الأمني.”


 


ويعد القلق واسع النطاق بشأن استخدام الذكاء الاصطناعي لتحسين هجمات البرامج الضارة أمرًا مثيرًا للاهتمام، و لقد تحدثنا مؤخرًا إلى مجموعة من خبراء الأمن السيبراني حول هذا الموضوع بالذات، ويبدو أن الإجماع هو أنه على الرغم من إمكانية استخدام الذكاء الاصطناعي في البرامج الضارة، إلا أنه ليس أداة قوية بشكل خاص في الوقت الحالي. شعر بعض الخبراء أن قدرتها على كتابة تعليمات برمجية فعالة للبرامج الضارة كانت ضعيفة، بينما أوضح آخرون أنه من المرجح أن يجد المتسللون عمليات استغلال أفضل في المستودعات العامة بدلاً من طلب المساعدة من الذكاء الاصطناعي.


 


ومع ذلك، فإن الشكوك المتزايدة حول كل ما يتعلق بالذكاء الاصطناعي يمكن أن تؤدي في النهاية إلى تشكيل جهود الصناعة وقد تدفع شركات مثل OpenAI إلى استثمار المزيد من الأموال في حماية الجمهور من المنتجات التي تطلقها. ومع هذا الدعم الساحق، لا تتفاجأوا إذا بدأت الحكومات في سن تشريعات خاصة بالذكاء الاصطناعي عاجلا وليس آجلا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى