اخبار

تطلق Nvidia العنان لـ H100 ، أسرع وحدة معالجة رسومات بالذكاء الاصطناعي حتى الآن ، عبر السحابة والموردين


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


أعلنت شركة Nvidia’s H100 Hopper GPU ، التي تعد بإحداث ثورة في الذكاء الاصطناعي (AI) بسرعة وقوة غير مسبوقة ، متاحة الآن على نطاق واسع للعملاء عبر مختلف المنصات ، حسبما أعلنت الشركة يوم الثلاثاء في مؤتمرها السنوي للمطورين.

تعد H100 خليفة لوحدات معالجة الرسومات A100 من Nvidia ، والتي كانت أساس جهود تطوير نموذج اللغة الكبيرة الحديثة. وفقًا لـ Nvidia ، فإن H100 أسرع بما يصل إلى تسع مرات لتدريب الذكاء الاصطناعي و 30 مرة أسرع في الاستدلال من A100.

>> تابع تغطية Nvidia GTC المستمرة لربيع 2023 من VentureBeat <<

تستفيد وحدة معالجة الرسومات الجديدة من محرك Transformer المدمج ، وهو أمر بالغ الأهمية لتطوير نماذج الذكاء الاصطناعي التوليدية مثل GPT-3. كما أنه يتميز بتعليمات البرمجة الديناميكية (DPX) ، والتي تساعد في تسريع تنفيذ التعليمات البرمجية.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

قال Ian Buck ، نائب رئيس Hyperscale و HPC في Nvidia ، خلال مؤتمر صحفي: “جميع مصنعي المعدات الأصلية الرئيسيين لديهم حلول خادم H100 لتسريع التدريب على نماذج اللغة الكبيرة ، وكان جميع مزودي الخدمات السحابية الرئيسيين مشغولين بالإعلان عن مثيلاتهم H100”. “نحن متحمسون للغاية لأن أنظمة H100 أصبحت الآن في مرحلة الإنتاج الكامل ومتاحة الآن للعملاء.”

تشكيلة هوبر من مصنعي المعدات الأصلية ، السحاب

قام كل من Hyperscalers وموفرو الخدمات السحابية بإعلانات لدعم H100.

أشار باك إلى أنه في الأسبوع الماضي فقط ، أعلنت Microsoft عن معاينتها الخاصة لمثيلات H100 Nvidia. ستساعد المثيلات الجديدة في تشغيل نماذج OpenAI من الجيل التالي ونماذج Nvidia الخاصة لتمكين فئة جديدة من حلول الذكاء الاصطناعي واسعة النطاق. في نوفمبر 2022 ، وسعت Microsoft و Nvidia شراكتهما لبناء كمبيوتر عملاق AI في السحابة ، والذي سيستخدم H100 بشكل مكثف في المستقبل.

أشار باك أيضًا إلى أن أمازون ستعلن عن Amazon Web Services (AWS) EC2 UltraClusters لمثيلات p5 ، والتي تستند إلى H100. قال باك إن مثيلات p5 يمكنها توسيع ما يصل إلى 20000 وحدة معالجة رسومات باستخدام تقنية مهايئ النسيج المرن (EFA) من AWS.

بالإضافة إلى ذلك ، قال باك إن شركة Meta التقنية العملاقة بدأت الآن في نشر أنظمة H100 “Grand Teton” في مراكز البيانات الخاصة بها لبناء كمبيوتر Meta الفائق التالي للذكاء الاصطناعي.

لوحظ عرض شريحة باك خلال مؤتمره الصحفي أن العديد من الشركاء سيعيشون الآن مع H100. ومن بين البائعين المدرجين ، Alibaba Cloud و Baidu Cloud و Cisco و Dell و Fujitsu و Gigabyte و Hewlett Packard Enterprise و Lenovo و Supermicro و Vultr.

ماذا بعد H100؟ المزيد من الاستدلال

يمكن نشر وحدات معالجة الرسومات لتدريب النماذج الجديدة وكذلك للاستدلال.

قال باك: “التدريب هو الخطوة الأولى – تعليم نموذج الشبكة العصبية كيفية أداء مهمة ، أو الإجابة على سؤال أو إنشاء صورة”. “الاستدلال هو نشر تلك النماذج في الإنتاج في حالات الاستخدام الواقعية.”

للمساعدة في دعم النشر الأوسع لقدرات الاستدلال ، أعلنت Nvidia عن وحدة معالجة الرسومات الجديدة L4. أوضح باك أن L4 هو مسرع عالمي للفيديو والذكاء الاصطناعي والرسومات بكفاءة. تمتلك Nvidia بالفعل مستخدمًا مبكرًا لـ L4: Google Cloud. ستقوم Google بدمج L4 في منصة Vertex AI بالإضافة إلى توفير وصول مباشر لمستخدميها عبر مثيلات الحوسبة الافتراضية الجديدة G2.

مُعالج رسومات Nvidia L4. رصيد الصورة: نفيديا.

قال باك: “إنها فتحة واحدة بسيطة ، وحدة معالجة رسومات غرافيك منخفضة المستوى يمكن أن تلائم أي خادم ، وتحول أي خادم أو أي مركز بيانات إلى مركز بيانات AI”. “وحدة معالجة الرسومات هذه أسرع 120 مرة من خادم وحدة المعالجة المركزية التقليدية وتستخدم طاقة أقل بنسبة 99٪.”

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى