اخبار

ظهرت Databricks لأول مرة على غرار ChatGPT Dolly ، وهي نسخة يمكن لأي مؤسسة امتلاكها


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


هل أصبحت منصة Databricks الخاصة ببحيرة البيانات منافسًا لـ OpenAI على بطاقة البنغو 2023 لأي شخص؟ حسنًا ، مرحبًا دوللي.

اليوم ، في محاولة تقول الشركة إنها تهدف إلى البناء على مهمتها الطويلة لإضفاء الطابع الديمقراطي على الذكاء الاصطناعي للمؤسسة ، أصدرت Databricks رمزًا لنموذج لغة كبير مفتوح المصدر (LLM) يسمى Dolly – سمي على اسم Dolly the sheep ، أول مستنسخ mammal – يمكن للشركات استخدامها لإنشاء روبوتات محادثة تتبع التعليمات تشبه ChatGPT.

أوضحت الشركة في منشور مدونة يمكن تدريب النموذج على بيانات قليلة جدًا وفي وقت قصير جدًا. “مع 30 دولارًا وخادم واحد وثلاث ساعات ، يمكننا التدريس [Dolly] قال علي قدسي ، الرئيس التنفيذي لشركة Databricks.

أوضح منشور المدونة أن هناك العديد من الأسباب التي تجعل الشركة تفضل بناء نموذج LLM الخاص بها بدلاً من إرسال البيانات إلى مزود LLM مركزي يقدم نموذجًا خاصًا وراء واجهة برمجة التطبيقات. قد لا يكون تسليم البيانات الحساسة إلى طرف ثالث خيارًا ، بينما قد يكون للمؤسسات احتياجات محددة فيما يتعلق بجودة النموذج والتكلفة والسلوك المرغوب.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

قال منشور المدونة: “نعتقد أن أفضل خدمة لمعظم مستخدمي ML على المدى الطويل من خلال امتلاك نماذجهم بشكل مباشر”.

وجدت Databricks أن الصفات الشبيهة بـ ChatGPT لا تتطلب أحدث أو أكبر LLM

وفقًا لمدونة المدونة ، قال Databricks إن المقصود من Dolly هو إظهار أن أي شخص “يمكنه أخذ نموذج لغة كبير مفتوح المصدر مؤرخ ومنحه تعليمات سحرية تشبه ChatGPT.” ومن المثير للدهشة ، كما جاء في التقرير ، أن اتباع التعليمات لا يبدو أنه يتطلب أحدث أو أكبر النماذج – دوللي هي فقط 6 مليارات معلمة ، مقارنة بـ 175 مليارًا لـ GPT-3.

قال غودسي ، الذي أخبر VentureBeat أنه كان “مذهولاً” عند ChatGPT تم إطلاقه في نهاية نوفمبر 2022 ، لكنه أدرك أن عددًا قليلاً فقط من الشركات على هذا الكوكب لديها نماذج اللغات الضخمة اللازمة لقدرة مستوى ChatGPT.

“كان معظم الناس يفكرون ، هل يتعين علينا جميعًا الاستفادة من هذه النماذج الاحتكارية التي تمتلكها هذه الشركات القليلة جدًا؟ وإذا كان الأمر كذلك ، فهل يتعين علينا منحهم بياناتنا؟ ” هو قال.

الإجابة على هذين السؤالين هي: لا: في فبراير ، أصدرت Meta أوزانًا لمجموعة من نماذج اللغة عالية الجودة (ولكن لا تتبع التعليمات) تسمى LLaMA للباحثين الأكاديميين ، الذين تم تدريبهم لأكثر من 80،000 ساعة GPU لكل منهم. بعد ذلك ، في آذار (مارس) ، بنى ستانفورد نموذج الألبكة ، والذي كان قائمًا على LLaMA ، ولكن تم ضبطه على مجموعة بيانات صغيرة تضم 50000 سؤال وإجابة شبيهة بالبشر ، مما جعلها تظهر تفاعلًا شبيهًا بـ ChatGPT.

مستوحاة من هذين الخيارين ، تمكنت Databricks من أخذ نموذج مفتوح المصدر يبلغ 6 مليارات معلمة من EleutherAI وتعديله قليلاً لاستنباط التعليمات التالية للقدرات مثل العصف الذهني وتوليد النص غير موجود في النموذج الأصلي ، باستخدام بيانات من Alpaca.

والمثير للدهشة أن النموذج المعدل كان يعمل بشكل جيد للغاية. وفقًا لمدونة المدونة ، يشير هذا إلى أن “الكثير من المكاسب النوعية في النماذج الحديثة مثل ChatGPT قد تدين لمجموعات مركزة من بيانات التدريب التي تتبع التعليمات ، بدلاً من النماذج الأساسية الأكبر أو الأفضل ضبطًا.”

لن تكون نماذج LLM في أيدي عدد قليل من الشركات فقط

قال غودي إن المضي قدمًا سيكون هناك المزيد من نماذج LLM التي ستصبح أرخص وأرخص – ولن تكون في أيدي عدد قليل من الشركات.

قال: “من المحتمل أن تستخدم كل منظمة على هذا الكوكب هذه”. “نعتقد أنه في كل صناعة ، ستكون الشركات الفائزة والرائدة هي شركات البيانات والذكاء الاصطناعي التي ستستفيد من هذا النوع من التكنولوجيا وستكون لديها هذه الأنواع من النماذج.”

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.


اكتشاف المزيد من نص كم

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من نص كم

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading