هل تعلم أن هناك 100000 شخص يعيشون في القارة القطبية الجنوبية بدوام كامل؟ بالطبع ، لم تفعل لأنه لا يوجد. ولكن إذا كتب عدد كافٍ من الأشخاص ذلك على الإنترنت وادعوا أنه حقيقة ، فإن جميع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ستخبرك في النهاية أن هناك 100،000 شخص يقيمون في أنتاركتيكا.
هذا هو السبب في أن الذكاء الاصطناعي في وضعه الحالي ينكسر في الغالب دون تدخل بشري.
أحب أن أذكر الجميع – بمن فيهم أنا – أن الذكاء الاصطناعي ليس مصطنعًا ولا ذكيًا. تقوم بإرجاع نتائج يمكن التنبؤ بها للغاية بناءً على المدخلات المقدمة فيما يتعلق بالبيانات التي تم تدريبها عليها.
هذه الجملة الغريبة تعني أنك إذا قمت بإطعام نموذج لغوي بسطر بعد سطر من الأشياء المملة وغير المضحكة التي يقولها جيري ثم اسأله عن أي شيء ، فإنه سيكرر أحد تلك الأشياء المملة وغير المضحكة التي قلتها. نأمل أن يكون الرد على كل ما كتبته في الموجه.
باختصار ، هذا هو السبب في أن Google تريد أن تسير ببطء عندما يتعلق الأمر بالذكاء الاصطناعي المباشر على غرار الدردشة الموجهة للمستهلك. لها سمعة يجب حمايتها.
أخبرني الإنترنت أن كل شيء مرتبط بالذكاء الاصطناعي رأيناه في Google I / O 2023 كان Google في حالة من الذعر واستجابة مباشرة لبعض الشركات الأخرى مثل Microsoft أو OpenAI.
أعتقد أن هذا هراء. الإصدار البطيء للميزات هو بالضبط ما أخبرتنا به Google حول كيفية تخطيطها للتعامل مع المستهلك بالذكاء الاصطناعي مرارًا وتكرارًا. من الرائع أن تعتقد أن Google سارعت إلى ابتكار كل ما رأيناه في شهر واحد فقط ردًا على أحدث إصدار من ميزة Bingbot ، لكنها لم تفعل ذلك. في حين أن تخيله رائعًا ، فهذا أيضًا من الحماقة تصديقه.
هذا هو نهج Google الفعلي بكلماتها الخاصة:
“نعتقد أن نهجنا تجاه الذكاء الاصطناعي يجب أن يكون جريئًا ومسؤولًا. ويعني ذلك بالنسبة لنا تطوير الذكاء الاصطناعي بطريقة تزيد من الفوائد الإيجابية للمجتمع مع مواجهة التحديات ، مسترشدين مبادئ الذكاء الاصطناعي (يفتح في علامة تبويب جديدة). في حين أن هناك توترًا طبيعيًا بين الاثنين ، نعتقد أنه من الممكن – وفي الحقيقة أمر بالغ الأهمية – احتضان هذا التوتر بشكل مثمر. الطريقة الوحيدة لتكون جريئًا حقًا على المدى الطويل هي أن تكون مسؤولاً من البداية “.
إن تعظيم الإيجابيات وتقليل الضرر هو المفتاح. نعم ، هناك إخلاء شامل ينص على أن روبوتات المحادثة قد تقول أشياء فظيعة أو غير دقيقة مرتبطة بهذه الروبوتات ، لكن هذا لا يكفي. يجب أن تتحمل أي شركة تشارك في التطوير – وهذا يشمل إلقاء النقود على شركة تقوم بالعمل الفعلي – المسؤولية عندما تتجه الأمور إلى الجنوب. ليس إذا ومتى.
هذا هو السبب في أنني أحب النهج البطيء والحذر الذي يحاول أن يكون أخلاقيًا وليس “دعنا نلقي الميزات !!!!” النهج الذي نراه من بعض الشركات الأخرى مثل Microsoft. أنا متأكد من أن Microsoft مهتمة بالأخلاق والحساسية والدقة عندما يتعلق الأمر بالذكاء الاصطناعي ولكن حتى الآن يبدو أن Google فقط هي التي تضع ذلك أمام كل إعلان.
هذا أكثر أهمية بالنسبة لي منذ أن قضيت بعض الوقت في البحث عن بعض الأشياء حول الذكاء الاصطناعي الذي يواجه المستهلك. الدقة مهمة بالطبع وكذلك الخصوصية ، لكنني تعلمت بالطريقة الصعبة أن التصفية هي على الأرجح الجزء الأكثر أهمية.
بحثت ووجدت بعض المواد التدريبية المستخدمة في روبوت ذكاء اصطناعي مشهور يخبره بما هو شديد السمية لاستخدامه داخل نموذج البيانات الخاص به. هذه هي الأشياء التي يجب أن تتظاهر بأنها غير موجودة.
تكونت البيانات من نصوص وصور تم تعديلها بشكل كبير ، وكلاهما أثر علي بالفعل. فكر في أسوأ شيء يمكنك تخيله – نعم ، الذي – التي شيء. بعض هذا أسوأ من ذلك. هذا محتوى ويب مظلم يتم إحضاره إلى الويب العادي في أماكن مثل Reddit والمواقع الأخرى حيث يوفر المستخدمون المحتوى. في بعض الأحيان ، يكون هذا المحتوى سيئًا ويبقى طويلاً بما يكفي لعرضه.
علمتني رؤية هذا ثلاثة أشياء:
1. الأشخاص الذين يتعين عليهم مراقبة وسائل التواصل الاجتماعي بحثًا عن هذا النوع من القمامة يحتاجون حقًا إلى شركات الدعم العقلي التي تقدمها. وزيادة رواتب ضخمة.
2. الإنترنت هو أداة رائعة يستخدمها أكثر الناس فظاعة على هذا الكوكب أيضًا. اعتقدت أن بشرتي سميكة بما يكفي لأكون مستعدًا لرؤيتها ، لكنني لم أكن مضطرًا حرفيًا إلى ترك العمل قبل بضع ساعات وقضاء بعض الوقت الإضافي مع الأشخاص الذين يحبونني.
3. لا تستطيع Google وكل الشركات الأخرى التي توفر الذكاء الاصطناعي على مستوى المستهلك السماح باستخدام مثل هذه البيانات كمواد تدريبية ، لكنها لن تكون قادرة على التقاطها وتصفيتها بالكامل.
الرقمان الأول والثاني أكثر أهمية بالنسبة لي ، لكن الرقم الثالث مهم بالنسبة إلى Google. النص الخام الذي يبلغ 7 جيجا بايت من “محتوى الويب المسيء” – جزء بسيط من المحتوى الذي قمت بالوصول إليه ، استخدمت كلمة “أوباما” أكثر من 330 ألف مرة بطريقة مسيئة. من المحتمل أن يكون عدد مرات استخدامه بطريقة خسيسة عبر الإنترنت بالكامل ضعف هذا الرقم أو ثلاثة أضعافه.
هذا هو ما يتم تدريب نماذج لغة الذكاء الاصطناعي للمستهلكين به. لا يوجد إنسان يقوم بإدخال شرائط من الكلمات المكتوبة بخط اليد في الكمبيوتر. بدلاً من ذلك ، ينظر “الكمبيوتر” إلى صفحات الويب ومحتواها. سيتم في النهاية تحليل صفحة الويب هذه واستخدامها كمدخلات. لذلك سوف تشان ميمي وصفحات الصور. وكذلك المدونات التي تتحدث عن أن الأرض مسطحة أو أن الهبوط على القمر مزيف.
إذا تطلب الأمر من Google التحرك ببطء للتخلص من أكبر قدر ممكن من الأشياء السيئة من الذكاء الاصطناعي للمستهلك ، فأنا جميعًا مع ذلك. يجب أن تكون كذلك ، لأن كل هذا يتطور في طريقه إلى الخدمات التي تستخدمها كل يوم على الهاتف الذي تخطط لشرائه بعد ذلك.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.