اخبار

الذكاء الاصطناعي للكلام والحوسبة الفائقة في السحابة ووحدات معالجة الرسومات لـ LLM والذكاء الاصطناعي التوليدي من بين خطوات Nvidia الكبيرة التالية


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


في مؤتمرها GTC 2023 ، كشفت Nvidia عن خططها الخاصة بالذكاء الاصطناعي للكلام ، مع تطوير نموذج لغة كبير (LLM) يلعب دورًا رئيسيًا. استمرارًا لتنمية براعتها في البرمجيات ، أعلنت شركة الأجهزة العملاقة عن مجموعة من الأدوات لمساعدة المطورين والمؤسسات التي تعمل على معالجة اللغة الطبيعية المتقدمة (NLP).

في هذا الصدد ، كشفت الشركة النقاب عن NeMo و DGX Cloud على جانب البرنامج ، و Hopper GPU على الجهاز. تقوم NeMo ، وهي جزء من الخدمات السحابية لـ Nvidia AI Foundations ، بإنشاء نماذج لغة ومحادثة تعتمد على الذكاء الاصطناعي. DGX Cloud عبارة عن منصة بنية أساسية مصممة خصيصًا لتقديم خدمات متميزة عبر السحابة وتشغيل نماذج الذكاء الاصطناعي المخصصة. في تشكيلة أجهزة الذكاء الاصطناعي الجديدة من Nvidia ، أصبحت وحدة معالجة الرسومات Hopper التي طال انتظارها متاحة الآن وتستعد لتعزيز استنتاج LLM في الوقت الفعلي.

>> تابع تغطية Nvidia GTC المستمرة لربيع 2023 من VentureBeat <<

طلب أحمال عمل LLM في السحابة

DGX Cloud من Nvidia هي خدمة حوسبة عملاقة تعمل بالذكاء الاصطناعي تتيح للمؤسسات الوصول الفوري إلى البنية التحتية والبرامج اللازمة لتدريب النماذج المتقدمة لـ LLMs والذكاء الاصطناعي التوليدي والتطبيقات الرائدة الأخرى.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

توفر DGX Cloud مجموعات مخصصة من حوسبة DGX AI الفائقة المقترنة ببرنامج AI الخاص بـ Nvidia. تسمح هذه الخدمة في الواقع لكل مؤسسة بالوصول إلى جهاز الكمبيوتر العملاق الخاص بها من خلال مستعرض ويب بسيط ، مما يلغي التعقيد المرتبط بالحصول على البنية التحتية المحلية ونشرها وإدارتها.

علاوة على ذلك ، تتضمن الخدمة دعمًا من خبراء Nvidia في جميع مراحل تطوير الذكاء الاصطناعي. يمكن للعملاء العمل مباشرة مع مهندسي Nvidia لتحسين نماذجهم وحل تحديات التنمية عبر مجموعة واسعة من حالات استخدام الصناعة.

قال جنسن هوانغ ، المؤسس والرئيس التنفيذي لشركة Nvidia: “نحن في لحظة iPhone الخاصة بالذكاء الاصطناعي”. “تتسابق الشركات الناشئة لبناء منتجات ونماذج أعمال تخريبية ، ويتطلع شاغلو الوظائف إلى الاستجابة. تمنح DGX Cloud العملاء إمكانية الوصول الفوري إلى حوسبة Nvidia AI الفائقة في السحب العالمية “.

تستخدم ServiceNow سحابة DGX مع أجهزة الكمبيوتر العملاقة Nvidia DGX المحلية للحصول على حوسبة سحابية هجينة مرنة وقابلة للتطوير تعمل بالذكاء الاصطناعي والتي تساعد في دعم أبحاث الذكاء الاصطناعي الخاصة بها على نماذج اللغة الكبيرة وإنشاء الكود والتحليل السببي.

تشارك ServiceNow أيضًا في الإشراف على مشروع BigCode ، وهو مبادرة مسؤولة للعلم المفتوح LLM ، والتي يتم تدريبها على إطار عمل Megatron-LM من Nvidia.

قال جيريمي بارنز ، نائب رئيس منصة المنتجات ، AI في ServiceNow لـ VentureBeat: “تم تنفيذ BigCode باستخدام الانتباه متعدد الاستعلامات في استنساخ Nvidia Megatron-LM الذي يعمل على وحدة معالجة رسومات A100 واحدة”. “أدى ذلك إلى خفض زمن انتقال الاستدلال إلى النصف وزيادة الإنتاجية بمقدار 3.8 مرة ، مما يوضح نوع أعباء العمل الممكنة في طليعة LLMs والذكاء الاصطناعي التوليدي على Nvidia.”

قال بارنز إن ServiceNow يهدف إلى تحسين تجربة المستخدم ونتائج الأتمتة للعملاء.

وأضاف بارنز: “يتم تطوير التقنيات في مجموعات أبحاث الذكاء الاصطناعي الأساسية والتطبيقية لدينا ، والتي تركز على التطوير المسؤول لنماذج الأساس للذكاء الاصطناعي المؤسسي”.

تبدأ مثيلات DGX السحابية من 36999 دولارًا لكل مثيل شهريًا.

تبسيط تطوير الذكاء الاصطناعي للكلام

تم تصميم خدمة Nvidia NeMo لمساعدة المؤسسات في الجمع بين LLMs وبياناتها الخاصة لتحسين روبوتات المحادثة وخدمة العملاء والتطبيقات الأخرى. كجزء من عائلة Nvidia AI Foundations التي تم إطلاقها حديثًا للخدمات السحابية ، تمكّن خدمة Nvidia NeMo الشركات من سد الفجوة من خلال زيادة LLM الخاصة بها ببيانات الملكية. هذا يسمح لهم بتحديث قاعدة المعرفة الخاصة بالنموذج بشكل متكرر من خلال التعلم المعزز دون البدء من نقطة الصفر.

قال مانوفير داس ، نائب رئيس حوسبة الشركات في Nvidia ، خلال مؤتمر صحفي سابق لـ GTC: “ينصب تركيزنا الحالي على التخصيص لنماذج LLM”. “باستخدام خدماتنا ، يمكن للمؤسسات إما إنشاء نماذج لغوية من البداية أو استخدام نماذج البنى الخاصة بنا.”

تعمل هذه الوظيفة الجديدة في خدمة NeMo على تمكين نماذج اللغات الكبيرة لاسترداد المعلومات الدقيقة من مصادر البيانات المسجلة الملكية وإنشاء استجابات تحادثية شبيهة بالبشر على استفسارات المستخدم.

تهدف NeMo إلى مساعدة المؤسسات على مواكبة المشهد المتغير باستمرار ، وإطلاق العنان لإمكانيات مثل روبوتات الدردشة عالية الدقة بالذكاء الاصطناعي ومحركات البحث الخاصة بالمؤسسات وأدوات استخبارات السوق. باستخدام NeMo ، يمكن للمؤسسات بناء نماذج لـ NLP والتعرف على الكلام الآلي في الوقت الفعلي (ASR) وتطبيقات تحويل النص إلى كلام (TTS) مثل نسخ مكالمات الفيديو ومساعدات الفيديو الذكية ودعم مركز الاتصال الآلي.

هندسة NeMo. مصدر الصورة: نفيديا

يمكن أن تساعد NeMo المؤسسات في بناء نماذج يمكنها التعلم من قاعدة معرفية متطورة مستقلة عن مجموعة البيانات التي تم تدريب النموذج عليها والتكيف معها. بدلاً من طلب إعادة تدريب LLM لحساب المعلومات الجديدة ، يمكن لـ NeMo الاستفادة من مصادر بيانات المؤسسة للحصول على تفاصيل محدثة.

تسمح هذه الإمكانية للمؤسسات بإضفاء الطابع الشخصي على نماذج اللغات الكبيرة مع معرفة محدثة بانتظام ومحددة المجال لتطبيقاتها. كما يتضمن أيضًا القدرة على الاستشهاد بالمصادر لاستجابات نموذج اللغة ، مما يعزز ثقة المستخدم في المخرجات.

يمكن للمطورين الذين يستخدمون NeMo أيضًا إعداد حواجز حماية لتحديد مجال خبرة الذكاء الاصطناعي ، مما يوفر تحكمًا أفضل في الاستجابات المتولدة.

قالت Nvidia إن Quantiphi ، وهي شركة حلول هندسية رقمية ومنصات ، تعمل مع NeMo لبناء حل موحد للذكاء الاصطناعي لمساعدة الشركات على إنشاء LLMs مخصصة لتحسين إنتاجية العمال. تعمل فرقها أيضًا على تطوير أدوات تمكن المستخدمين من البحث عن معلومات محدثة عبر النصوص والصور والجداول غير المهيكلة في ثوانٍ.

معماريات LLM على المنشطات؟

أعلنت Nvidia أيضًا عن أربع وحدات معالجة رسومات استدلالية ، محسّنة لمجموعة متنوعة من تطبيقات LLM الناشئة وتطبيقات الذكاء الاصطناعي التوليدية. تهدف وحدات معالجة الرسومات هذه إلى مساعدة المطورين في إنشاء تطبيقات متخصصة مدعومة بالذكاء الاصطناعي يمكنها تقديم خدمات ورؤى جديدة بسرعة. علاوة على ذلك ، تم تصميم كل وحدة معالجة رسومات (GPU) ليتم تحسينها من أجل أعباء عمل استدلال الذكاء الاصطناعي المحددة مع تقديم برامج متخصصة أيضًا.

من بين وحدات معالجة الرسومات الأربعة التي تم الكشف عنها في GTC ، تم تصميم Nvidia H100 NVL حصريًا لنشر LLM ، مما يجعلها خيارًا مناسبًا لنشر LLM ضخمة ، مثل ChatGPT ، على نطاق واسع. تتميز H100 NVL بذاكرة 94 جيجا بايت مع تسريع محرك المحولات ، وتوفر أداء استدلال أسرع بما يصل إلى 12 مرة في GPT-3 مقارنة بالجيل السابق A100 على مقياس مركز البيانات.

علاوة على ذلك ، تشتمل طبقة برامج GPU على مجموعة برامج Nvidia AI Enterprise. يشتمل الجناح على Nvidia TensorRT ، ومجموعة تطوير برامج استدلال التعلم العميق عالية الأداء ، وخادم الاستدلال Nvidia Triton ، وهو برنامج مفتوح المصدر لخدمة الاستدلال الذي يوحد معايير نشر النموذج.

سيتم إطلاق H100 NVL GPU في النصف الثاني من هذا العام.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى