انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر
اتخذت شركة Anthropic ، وهي شركة رائدة في مجال الذكاء الاصطناعي أسسها مهندسو OpenAI السابقون ، نهجًا جديدًا لمعالجة التحديات الأخلاقية والاجتماعية التي تطرحها أنظمة الذكاء الاصطناعي المتزايدة القوة: من خلال منحها دستورًا.
يوم الثلاثاء ، أصدرت الشركة علنًا دستورها الرسمي لـ Claude ، وهو أحدث نموذج محادثة للذكاء الاصطناعي يمكنه إنشاء نصوص وصور ورموز. يحدد الدستور مجموعة من القيم والمبادئ التي يجب على كلود اتباعها عند التفاعل مع المستخدمين ، مثل أن تكون مفيدًا وغير ضار وصادق. كما تحدد الطريقة التي يجب أن يتعامل بها كلود مع الموضوعات الحساسة واحترام خصوصية المستخدم وتجنب السلوك غير القانوني.
قال جاريد كابلان ، الشريك المؤسس للأنثروبيك ، في مقابلة مع VentureBeat: “نحن نشارك دستور كلود الحالي بروح الشفافية”. نأمل أن يساعد هذا البحث مجتمع الذكاء الاصطناعي على بناء المزيد من النماذج المفيدة وجعل قيمهم أكثر وضوحًا. نحن نشارك هذا أيضًا كنقطة بداية – نتوقع مراجعة دستور كلود باستمرار ، وجزء من أملنا في مشاركة هذا المنشور هو أنه سيؤدي إلى مزيد من البحث والمناقشة حول تصميم الدستور. “
ويستند الدستور إلى مصادر مثل إعلان الأمم المتحدة لحقوق الإنسان ، وأبحاث أخلاقيات الذكاء الاصطناعي وسياسات محتوى المنصة. إنها نتيجة شهور من التعاون بين باحثي الأنثروبيك وخبراء السياسة وقادة العمليات ، الذين كانوا يختبرون ويصقلون سلوك وأداء كلود.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
من خلال الإعلان عن دستورها ، تأمل أنثروبيك في تعزيز المزيد من الثقة والشفافية في مجال الذكاء الاصطناعي ، الذي ابتليت به الجدل حول التحيز والمعلومات المضللة والتلاعب. تأمل الشركة أيضًا في إلهام مطوري الذكاء الاصطناعي وأصحاب المصلحة الآخرين لتبني ممارسات ومعايير مماثلة.
يسلط الإعلان الضوء على القلق المتزايد بشأن كيفية ضمان أن تتصرف أنظمة الذكاء الاصطناعي بشكل أخلاقي عندما تصبح أكثر تقدمًا واستقلالية. في الأسبوع الماضي فقط ، استقال جيفري هينتون ، الرئيس السابق لقسم أبحاث الذكاء الاصطناعي في Google ، من منصبه في شركة التكنولوجيا العملاقة ، مشيرًا إلى مخاوف متزايدة بشأن الآثار الأخلاقية للتكنولوجيا التي ساعد في إنشائها. أظهرت النماذج اللغوية الكبيرة (LLMs) ، التي تولد نصًا من مجموعات بيانات ضخمة ، أنها تعكس التحيزات في بيانات التدريب الخاصة بها بل وتضخمها.
بناء أنظمة ذكاء اصطناعي لمكافحة التحيز والضرر
Anthropic هي واحدة من الشركات الناشئة القليلة المتخصصة في تطوير أنظمة الذكاء الاصطناعي العامة ونماذج اللغة ، والتي تهدف إلى أداء مجموعة واسعة من المهام عبر مجالات مختلفة. الشركة ، التي تم إطلاقها في عام 2021 بجولة تمويل بقيمة 124 مليون دولار من السلسلة A ، لديها مهمة لضمان أن يساعد الذكاء الاصطناعي التحويلي الناس والمجتمع على الازدهار.
كلود هو المنتج الرئيسي لشركة Anthropic ، والذي تخطط لنشره في تطبيقات مختلفة مثل التعليم والترفيه والمنفعة الاجتماعية. يمكن لكلود إنشاء محتوى مثل القصائد والقصص والرموز والمقالات والأغاني والمحاكاة الساخرة للمشاهير وغير ذلك. يمكن أن يساعد المستخدمين أيضًا في إعادة كتابة المحتوى الخاص بهم أو تحسينه أو تحسينه. يدعي أنثروبيك أن كلود هو أحد أكثر أنظمة الذكاء الاصطناعي موثوقية وقابلية للتوجيه في السوق ، وذلك بفضل دستوره وقدرته على التعلم من ردود الفعل البشرية.
قال كابلان لموقع VentureBeat: “لقد اخترنا مبادئ مثل تلك الواردة في إعلان الأمم المتحدة لحقوق الإنسان التي تتمتع باتفاق واسع وتم إنشاؤها بطريقة تشاركية”. “لاستكمال هذه المبادئ ، قمنا بتضمين مبادئ مستوحاة من أفضل الممارسات في شروط الخدمة للمنصات الرقمية للمساعدة في التعامل مع المزيد من القضايا المعاصرة. قمنا أيضًا بتضمين المبادئ التي اكتشفناها تعمل بشكل جيد عبر عملية التجربة والخطأ في بحثنا. تم جمع واختيار المبادئ من قبل الباحثين في Anthropic. نحن نستكشف طرقًا لإنتاج دستور لكلود بشكل أكثر ديمقراطية ، ونستكشف أيضًا تقديم دساتير قابلة للتخصيص لحالات استخدام محددة “.
يسلط الكشف عن دستور الأنثروبيك الضوء على قلق مجتمع الذكاء الاصطناعي المتزايد بشأن قيم النظام وأخلاقياته – والمطالبة بتقنيات جديدة لمعالجتها. مع انتشار الذكاء الاصطناعي المتقدم بشكل متزايد من قبل الشركات في جميع أنحاء العالم ، يجادل الباحثون بأن النماذج يجب أن تكون مقيدة بأخلاقيات وأخلاقيات الإنسان ، وليس فقط تحسينها للمهام الضيقة مثل إنشاء نص جذاب. يقدم الذكاء الاصطناعي الدستوري مسارًا واعدًا نحو تحقيق هذا الهدف.
يتطور الدستور مع تقدم الذكاء الاصطناعي
أحد الجوانب الرئيسية لدستور الأنثروبيك هو قدرته على التكيف. يقر Anthropic أن الإصدار الحالي لم يتم الانتهاء منه ولا من المحتمل أن يكون أفضل ما يمكن أن يكون ، ويرحب بالبحث والتغذية الراجعة لصقل الدستور وتحسينه. يوضح هذا الانفتاح على التغيير التزام الشركة بضمان أن تظل أنظمة الذكاء الاصطناعي محدثة وذات صلة مع ظهور مخاوف أخلاقية جديدة ومعايير مجتمعية.
قال كابلان: “سيكون لدينا المزيد لمشاركته بشأن تخصيص الدستور لاحقًا”. “ولكن لكي نكون واضحين: يجب أن تندرج جميع استخدامات نموذجنا ضمن سياسة الاستخدام المقبول الخاصة بنا. يوفر هذا حواجز حماية على أي تخصيص. تقوم سياسة AUP الخاصة بنا بإيقاف الاستخدامات الضارة لنموذجنا ، وستستمر في القيام بذلك “.
في حين أن دساتير الذكاء الاصطناعي ليست حلاً سحريًا ، إلا أنها تمثل نهجًا استباقيًا لمعالجة الأسئلة الأخلاقية المعقدة التي تنشأ مع استمرار أنظمة الذكاء الاصطناعي في التقدم. من خلال جعل أنظمة القيم لنماذج الذكاء الاصطناعي أكثر وضوحًا وقابلة للتعديل بسهولة ، يمكن لمجتمع الذكاء الاصطناعي العمل معًا لبناء نماذج أكثر فائدة تخدم احتياجات المجتمع حقًا.
قال كابلان: “نحن متحمسون لمزيد من الناس الذين يفكرون في تصميم الدستور”. “اخترع أنثروبيك طريقة الذكاء الاصطناعي الدستوري ، لكننا لا نعتقد أن دور شركة خاصة هو إملاء القيم التي يجب أن توجه الذكاء الاصطناعي في النهاية. لقد بذلنا قصارى جهدنا لإيجاد مبادئ تتماشى مع هدفنا المتمثل في إنشاء نظام ذكاء اصطناعي مفيد وغير ضار وصادق ، لكننا في النهاية نريد المزيد من الأصوات للتأثير على القيم التي يجب أن تكون في أنظمتنا. دستورنا حي – سنواصل تحديثه والتكرار عليه. نريد أن تثير هذه المدونة البحث والمناقشة ، وسنواصل استكشاف طرق لجمع المزيد من المدخلات حول دساتيرنا “.
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من نص كم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.