في عالم التكنولوجيا اليوم، هناك حاجة متزايدة لمزيد من القوة الحاسوبية وقدرات المعالجة الذكية. إن NVIDIA GH200 مع Grace Hopper Superchip هو كمبيوتر فائق الذكاء الاصطناعي يمثل خطوة هائلة إلى الأمام في هذا المجال. ستستكشف هذه الورقة سبب تغيير GH200 لما نعتبره معيارًا للذكاء الاصطناعي والتعلم الآلي من خلال عدم رؤية مستويات الأداء المقترنة بمكاسب الكفاءة من قبل. تشرح هذه المقالة كل مكون أيضًا، بدءًا من تصميمه المتطور وصولاً إلى كيفية دمج قدرات وحدة معالجة الرسومات ووحدة المعالجة المركزية بشكل لم يسبق له مثيل حتى تتمكن من فهم مدى التأثير الذي يمكن أن يحدثه على الصناعات المختلفة. انضم إلينا أثناء قيامنا بمراجعة المواصفات الفنية والاستخدامات المحتملة وما قد يحدث بعد ذلك مع هذه التقنية التي ستغير قواعد اللعبة!
ما هو NVIDIA GH200 ولماذا يعتبر ثوريًا؟

فهم رقائق GH200 Grace Hopper الفائقة
حل الحوسبة المدمج هو NVIDIA GH200 Grace Hopper Superchip، الذي يدمج الميزات القوية لبنية NVIDIA Hopper GPU وكفاءة أداء وحدة المعالجة المركزية ARM Neoverse. لقد أصبح من الممكن لهذه الشريحة توفير مستويات غير مسبوقة من الذكاء الاصطناعي والحوسبة عالية الأداء وأداء تحليلات البيانات من خلال هذا الدمج. يختلف GH200 عن الرقائق الأخرى لأنه يمكنه مزج مكونات وحدة معالجة الرسومات ووحدة المعالجة المركزية بسلاسة، وبالتالي تقليل زمن الوصول مع زيادة إنتاجية البيانات بحيث تتم معالجة المهام الحسابية المعقدة بشكل أكثر كفاءة، مما يؤدي إلى حدود جديدة في التطبيقات التي تعتمد على الذكاء الاصطناعي عبر صناعات متعددة مثل البحث العلمي. ; آلات ذاتية القيادة؛ ومعالجة البيانات الضخمة وغيرها.
الميزات الرئيسية لـ NVIDIA GH200
- تصميم مدمج لوحدة معالجة الرسومات ووحدة المعالجة المركزية: يجمع طراز GH200 بين وحدة معالجة الرسومات NVIDIA Hopper ووحدة المعالجة المركزية ARM Neoverse لإنشاء نظام موحد يقلل من التأخير ويزيد من معدل نقل البيانات. بالإضافة إلى ذلك، قامت NVIDIA أيضًا بتحسين هذا النظام الأساسي لمختلف مهام الحوسبة عالية الأداء.
- شريحة الحاسوب العملاق (HPC): تم تصميم هذه الشريحة الفائقة للمهام الحسابية المكثفة، مما يجعلها مناسبة بشكل أفضل للبيئات التي تتطلب قدرة حوسبة عالية الأداء.
- كفاءة أفضل للبيانات: يدمج GH200 وحدات المعالجة مع الذاكرة، وبالتالي تحسين سرعات نقل البيانات ويؤدي إلى معالجة أكثر كفاءة للبيانات.
- قابلية التوسع: سواء كان الأمر يتعلق بالبحث العلمي أو الأنظمة المستقلة، يضمن تصميم GH200 إمكانية توسيع نطاقه أو تقليله وفقًا لاحتياجات الصناعة المختلفة.
- توفير الطاقة: يوفر GH200 أداءً عاليًا من خلال بنية ARM Neoverse مع الحفاظ على كفاءة استخدام الطاقة، وبالتالي فهو مهم لحلول الحوسبة المستدامة.
- دعم الذكاء الاصطناعي والتعلم الآلي: تتيح هذه الميزات المتقدمة في GH200 نماذج الذكاء الاصطناعي والتعلم الآلي المعقدة، وبالتالي تعزيز الابتكار في التطبيقات التي تعتمد على الذكاء الاصطناعي.
شرح بنية Grace Hopper™
تعد بنية Grace Hopper طريقة ثورية لأنظمة الحوسبة تجمع بين قوة بنية GPU Hopper من NVIDIA مع بنية ARM Neoverse CPU. يعمل هذا الاتحاد على تقليل زمن الوصول في نقل البيانات وزيادة الإنتاجية أو مقدار العمل المفيد المنجز. يحتوي التصميم على ذكريات مشتركة سريعة، ويدمج سير عمل وحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU) بسلاسة، ويستخدم اتصالات متقدمة ضرورية لدعم متطلبات معالجة البيانات الضخمة.
بعض الميزات المهمة في بنية Grace Hopper هي:
- الذاكرة الموحدة: تسمح لوحدة المعالجة المركزية ووحدة معالجة الرسومات بالوصول إلى مجموعة ذاكرة مشتركة، مما يقلل بشكل كبير من أوقات نقل البيانات، مما يجعل العمليات الحسابية أكثر كفاءة.
- الوصلات البينية المتقدمة: يستخدم هذا النوع من التكنولوجيا تقنيات مثل NVIDIA NVLink، من بين تقنيات أخرى، ذات نطاقات ترددية عالية جدًا. يتيح ذلك الاتصال السريع بين الأجزاء المختلفة، وبالتالي ضمان أفضل أداء ممكن للمهام التي تتضمن كميات كبيرة من المعلومات.
- قدرات المعالجة المتوازية: يتم تعزيز القدرة الحسابية للنظام من خلال دمج وحدات المعالجة المركزية NVIDIA Grace مع ذاكرة HBM3E؛ وهذا يؤدي إلى تحسين كفاءتها بشكل كبير أيضًا، حيث يمكنها معالجة أشياء كثيرة في وقت واحد. بالإضافة إلى ذلك، تعمل هذه البنية بشكل جيد للغاية في المعالجة المتوازية، وبالتالي فهي مناسبة للغاية للتدريب على نماذج الذكاء الاصطناعي، ومهام الحوسبة عالية الأداء، وعمليات المحاكاة المعقدة بشكل عام.
باختصار، تم إنشاء بنية Grace Hopper™ لتلبية الاحتياجات الحالية في بيئات الحوسبة من خلال توفير أساس قابل للتطوير وفعال وعالي الأداء لتطبيقات مختلفة.
كيف يعمل الكمبيوتر العملاق NVIDIA DGX GH200 AI؟

دور وحدات معالجة الرسومات ووحدات المعالجة المركزية في DGX GH200
يجمع الكمبيوتر الفائق الذكاء الاصطناعي NVIDIA DGX GH200 بين وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) لتحقيق قوة حوسبة بأحجام لم يسبق لها مثيل. في المعالجة المتوازية، تلعب وحدات معالجة الرسومات أو وحدات معالجة الرسومات دورًا أساسيًا من خلال التعامل مع عمليات متعددة في وقت واحد؛ يعد هذا أمرًا بالغ الأهمية أثناء تدريب نماذج الذكاء الاصطناعي واسعة النطاق وإجراء عمليات محاكاة معقدة نظرًا لأنها جيدة بشكل استثنائي في إدارة كميات هائلة من البيانات جنبًا إلى جنب مع العمليات الحسابية التي تعمل بالتوازي.
من ناحية أخرى، وحدات المعالجة المركزية (وحدات المعالجة المركزية) مسؤولة عن إدارة مهام الحوسبة للأغراض العامة وتنسيق الأنشطة بين الأجزاء المختلفة داخل كمبيوتر فائق الذكاء الاصطناعي. يأتي دعم حساب المهام التسلسلية لهم من دمج وحدات المعالجة المركزية ARM Neoverse في DGX GH200 حتى يتمكنوا من التعامل مع أنظمة كفاءة إدارة التحكم في التدفق بشكل عام.
تعمل وحدات المعالجة المركزية ARM Neoverse المدمجة في DGX GH200 مع وحدة معالجة الرسوميات Hopper من NVIDIA بطريقة يمكن لتطبيقات الذكاء الاصطناعي كثيفة البيانات الاستفادة من عرض النطاق الترددي المتزايد وتقليل زمن الوصول، من بين أمور أخرى، مع الاستمرار في الاستمتاع بمستويات أداء أفضل من ذي قبل. وهذا يتيح قابلية التوسع والكفاءة عند التعامل مع أعباء العمل الثقيلة التي تتطلبها أنظمة الذكاء الاصطناعي، مما يجعل من الممكن توفير حلول قوية بواسطة DGX GH200 في مثل هذه الظروف.
NVIDIA NVLink: تعزيز الاتصال البيني
NVIDIA NVLink هي تقنية ربط ذات نطاق ترددي عالٍ تعمل على تعزيز تبادل البيانات بين وحدات معالجة الرسومات NVIDIA ووحدات المعالجة المركزية. فهو يقلل من زمن الوصول من خلال توفير مسار اتصال مباشر، وبالتالي زيادة معدلات نقل المعلومات إلى الحد الأقصى، وبالتالي تحسين كفاءة أي سير عمل يتم على منصات مثل NVIDIA DGX H100. تعمل تقنية NVLink على تحسين قابلية التوسع من خلال السماح لوحدات معالجة الرسومات المتعددة بالعمل معًا بسلاسة ومشاركة مواردها للتعامل مع نماذج الذكاء الاصطناعي المعقدة بالإضافة إلى التطبيقات كثيفة البيانات. تتيح هذه الميزة لأجهزة الكمبيوتر العملاقة التي تعمل بالذكاء الاصطناعي مثل DGX GH200 رفع مستوى الأداء لأنها يمكن أن تقدم أكثر مما يمكن أن تحققه البنى التقليدية القائمة على السرعة البطيئة والأساليب غير الفعالة لنقل البيانات. ضمن DGX GH200، يضمن هذا الارتباط عدم وجود تأخير في نقل البيانات بين المعالجات، وبالتالي تمكين المعالجة في الوقت الحقيقي وتحليل كميات كبيرة من المعلومات.
تسريع أعباء عمل التعلم العميق والذكاء الاصطناعي
من أجل تسريع التعلم العميق وأحمال عمل الذكاء الاصطناعي، يستخدم DGX GH200 أجهزة متقدمة وبرامج محسنة، بما في ذلك NVIDIA Grace Hopper Superchip. يوفر تكامل NVIDIA Hopper GPU قوة حسابية لا مثيل لها، وبالتالي يتيح أوقات تدريب أسرع ومعدلات استدلال أفضل على النماذج المعقدة. بالإضافة إلى ذلك، يأتي هذا مزودًا بتخزين عالي السرعة مقترنًا بذاكرة فردية تضمن استرجاعًا سريعًا للبيانات بالإضافة إلى سرعات المعالجة. شيء آخر هو أن استخدام NVIDIA CUDA، جنبًا إلى جنب مع مكتبات cuDNN، يبسط عملية التطوير، وبالتالي يمنح المطورين أدوات فعالة لتنفيذ ونشر تطبيقات الذكاء الاصطناعي. كل هذه التطورات تجعل من الممكن لـ DGX GH200 تقديم مستويات أداء أعلى، وبالتالي تلبية المتطلبات العامة التي تفرضها أعباء عمل الذكاء الاصطناعي الحديثة.
لماذا تختار NVIDIA GH200 لأحمال عمل الذكاء الاصطناعي لديك؟

مزايا الذاكرة ذات النطاق الترددي العالي (HBM3E)
تُعد منصة NVIDIA Grace Hopper Superchip طريقة فعّالة للاستفادة من هذه الفوائد. ومع ذلك، هناك العديد من الأسباب التي تجعل استخدام HBM3E في أجهزة الكمبيوتر العملاقة عالية الأداء للذكاء الاصطناعي مثل DGX GH200 أمرًا ضروريًا. ومن بين أبرز هذه الأسباب تصميمها المدمج، الذي يقلل من المسافة التي تحتاج البيانات إلى قطعها، وبالتالي منع حدوث أي اختناقات محتملة؛ كما تعمل كمكون أساسي لتدريب النموذج بشكل أسرع وعمليات الاستدلال الأكثر كفاءة اللازمة للتعامل مع كميات كبيرة من المعلومات في وقت واحد؛ وأخيرًا وليس آخرًا، توفر هذه التقنية كفاءة طاقة استثنائية تلعب دورًا مهمًا في إدارة الميزانيات الحرارية والطاقة لأنظمة الذكاء الاصطناعي المتقدمة حتى تتمكن من الأداء بشكل مثالي دون ارتفاع درجة الحرارة أو استخدام الكثير من الكهرباء.
الاستفادة من رقائق NVIDIA Grace Hopper الفائقة
تعد NVIDIA Grace Hopper Superchips تقدمًا جديدًا في الذكاء الاصطناعي والحوسبة عالية الأداء. تجمع هذه الرقائق الفائقة بين قوة بنية Hopper GPU من NVIDIA مع قدرات وحدة المعالجة المركزية Grace CPU المتقدمة، مما يخلق نظامًا واحدًا يتألق في أعباء العمل ذات الحوسبة الثقيلة والذاكرة. يعمل التوازي بين وحدة معالجة الرسومات Hopper والأنظمة الفرعية للذاكرة ذات النطاق الترددي الأعلى الموجودة في وحدات المعالجة المركزية Grace على تسريع وقت تدريب نموذج الذكاء الاصطناعي مع السماح باستدلالات في الوقت الفعلي وبالتالي الاستفادة من تقنية NVIDIA Grace Hopper Superchip. يدعم هذا المزيج أيضًا الحوسبة غير المتجانسة، أي إدارة أنواع مختلفة من المهام الحسابية بسلاسة على بنية أساسية واحدة. بالإضافة إلى ذلك، يتم ضمان الأداء المستدام من خلال التصميم الموفر للطاقة لهذه الرقائق، والذي يتوافق مع حلول تكنولوجيا المعلومات الأكثر صديقة للبيئة بسبب الحاجة المتزايدة إليها من حيث الموارد بالإضافة إلى الجوانب الأخرى. ومن خلال هذه الوسائل، يمكن للمؤسسات تحسين قدراتها في مجال الذكاء الاصطناعي بشكل كبير، وتحقيق نتائج أفضل بشكل أسرع وبتكاليف أقل لكل عملية.
تعظيم الأداء للذكاء الاصطناعي التوليدي
لتحقيق أقصى قدر من أداء الذكاء الاصطناعي التوليدي، قم بنشر أحدث تقنيات تحسين الأجهزة والبرامج التي تتيح التدريب والاستدلال الحيوي للنماذج. بعض من أفضل الأساليب هي كما يلي:
- استخدم الأجهزة المتخصصة: استخدم الأجهزة المتقدمة مثل NVIDIA Grace Hopper Superchips، التي تحتوي على وحدات معالجة رسومات عالية الأداء مقترنة بأنظمة ذاكرة فعالة قادرة على توفير قوة المعالجة المطلوبة لمهام الذكاء الاصطناعي التوليدية. يعد هذا التكامل مفيدًا في التعامل مع أحمال العمل كثيفة الحساب والتي تتطلب المزيد من الذاكرة في وقت واحد.
- تنفيذ المعالجة المتوازية: استغلال المعالجة المتوازية باستخدام وحدات معالجة الرسومات لتقليل أوقات التدريب أثناء التنفيذ المعقد للنماذج التوليدية. يمكن للتدريب المختلط الدقة، من بين تقنيات التحسين الأخرى، تحقيق هذه الكفاءات الحسابية دون المساس بالدقة.
- تحسين بنية النموذج: يمكن الحصول على نتائج أفضل عن طريق تقليل المعلمات من خلال تبسيط بنيات النموذج، في حين يمكن أيضًا استخدام تقنيات التقليم أو التكميم عند الضرورة دون المساس بالجودة. تسمح أطر الشبكات العصبية المتقدمة بمثل هذه التحسينات، وبالتالي تمكين النشر في الوقت الفعلي على منصات NVIDIA DGX H100.
ومن خلال هذه المبادئ التوجيهية، ستتمكن الشركات من تحقيق أنظمة ذات أداء أفضل من حيث السرعة والجودة بفضل التكرارات الأسرع الناتجة عن المخرجات الأكثر دقة الناتجة عن التنافس ضد بعضها البعض في بيئة سوق متزايدة العدوانية باستخدام الذكاء الاصطناعي الإبداعي.
كيف يختلف NVIDIA GH200 عن NVIDIA H100 وA100؟

تحليل مقارن مع NVIDIA H100
يختلف NVIDIA GH200 وH100 بشكل كبير في بنيتهما وقدرات الأداء. على سبيل المثال، يستخدم GH200 وحدات المعالجة المركزية NVIDIA Grace التي تم تصميمها مع أخذ الأداء العالي في الاعتبار. من ناحية أخرى، تم بناء هذه الشريحة على بنية Grace Hopper من Nvidia، وتجمع بين وحدات معالجة الرسومات عالية الأداء ونظام فرعي متقدم للذاكرة للتعامل بشكل أفضل مع أعباء عمل الذكاء الاصطناعي واسعة النطاق. يؤدي المزيد من عرض النطاق الترددي للذاكرة، فضلاً عن سعة التخزين داخل GH200، إلى زيادة السرعة والكفاءة أثناء العمليات كثيفة البيانات مثل التدريب أو الاستدلال من النماذج التوليدية.
بالمقارنة مع نظيرتها المستندة إلى Hopper Architecture–H100، على الرغم من أنها مُحسّنة لأنواع مختلفة من أعباء عمل الحوسبة المتسارعة بما في ذلك على سبيل المثال لا الحصر، مهام الذكاء الاصطناعي (AI) والحوسبة عالية الأداء (HPC)، إلا أنها تفتقر إلى الذاكرة المتكاملة. الأنظمة كما هي موجودة في طراز GH200. ومع ذلك، فإن ما يميزهما يكمن في الغالب في وحدات تنظيم الذاكرة الخاصة بهما، حيث يمكن رؤية المزيد من التحسينات من حيث قدرات المعالجة المتوازية داخل GH 1000 أكثر من أي جهاز آخر متوفر حاليًا.
في حين أن كلا التصميمين يمثلان تقدمًا تكنولوجيًا متطورًا في هذا المجال، إلا أنه لا تزال هناك بعض الميزات الفريدة التي لا يعرضها سوى GH200، مثل وحدة معالجة الرسومات القداسة جنبًا إلى جنب مع وحدة المعالجة المركزية الرائعة، مما يجعله نظامًا كاملاً مناسبًا لمواجهة التحديات التي تطرحها برامج الذكاء الاصطناعي التوليدية. على وجه الخصوص، هذا يعني أنه عندما يحتاج التطبيق إلى مستويات عالية من القوة الحسابية مقترنة باستراتيجيات فعالة لإدارة البيانات، فإن اختيار gh 200 لن يخيب ظنك أبدًا.
فروق الأداء بين GH200 وA100
وفقًا لهذا البيان، فإن التباينات في الأداء بين NVIDIA GH200 وA100 ترجع بشكل أساسي إلى البنية وقدرات الذاكرة. تعد Grace Hopper أحدث بنية مستخدمة في GH200، والتي أدت إلى زيادة كبيرة في قوة الكمبيوتر وتحسين عرض النطاق الترددي للذاكرة مقارنةً بـ A100، الذي يستخدم بنية Ampere. وهذا يعني أن نظام الذاكرة الفرعي المدمج لـ GH200 يعد أكثر فائدة لأنظمة الذكاء الاصطناعي وغيرها من التطبيقات كثيفة البيانات لأنه يوفر إنتاجية أعلى بكفاءة أكبر.
على العكس من ذلك، على الرغم من أن A100، المستند إلى بنية Ampere، يقدم أداءً ممتازًا عبر تطبيقات الذكاء الاصطناعي المختلفة والحوسبة عالية الأداء، إلا أنه يفتقر إلى بعض التحسينات المتخصصة الموجودة في GH200. بالإضافة إلى ذلك، هناك العديد من أوضاع الدقة في A100 والتي يمكن توسيع نطاقها وفقًا لأحمال العمل المختلفة، لكن مستوى تكامل الذاكرة وقدرة المعالجة المتوازية ليس مماثلاً لمستوى GH200.
لتلخيص ذلك، في حين أن كل وحدة معالجة رسومات تعمل بشكل جيد ضمن مجالها؛ يتضح من هذا المقطع أن ما يميز GH200 عن الآخرين هو تصميمها المعماري المتقدم الذي يجعل هذه البطاقات مناسبة بشكل أفضل لأحمال الذكاء الاصطناعي التوليدية التي تتطلب قدرات هائلة في التعامل مع الذاكرة إلى جانب القوة الحسابية.
حالات الاستخدام لـ GH200 مقابل H100 مقابل A100
جي اتش 200:
يعد GH200 رائعًا لأحمال عمل الذكاء الاصطناعي التوليدية التي تستهلك قدرًا كبيرًا من الذاكرة وقوة المعالجة. وهو مصمم للتعامل مع التدريب على التعلم العميق ونماذج اللغة الكبيرة وعمليات المحاكاة المعقدة. عدد قليل جدًا من التطبيقات يمكنها التغلب على النطاق الترددي الواسع للذاكرة ونظام الذاكرة الفرعي المدمج في GH200 عندما يتعلق الأمر بالعمل مع مجموعات البيانات الضخمة؛ وهذا يسمح بمعالجة البيانات بشكل أسرع والتدريب الأمثل على النموذج.
H100:
باستخدام بنية Hopper، تم إنشاء H100 كأداة للحوسبة عالية الأداء (HPC)، واستدلال الذكاء الاصطناعي، والتعلم العميق. إنه يعمل بشكل جيد في المواقف التي تكون فيها الحاجة إلى كميات كبيرة من العمليات الحسابية إلى جانب زمن الوصول المنخفض، مثل التحليلات في الوقت الفعلي حول البحث العلمي أو الأنظمة المستقلة. إن قدرته على توفير إنتاجية عالية في مراكز البيانات مع الحفاظ على قدرات الاستدلال السريع تجعله خيارًا ممتازًا عبر أنواع متعددة ومختلفة من تطبيقات الذكاء الاصطناعي.
A100:
تم تصميم A100 حول بنية Ampere، ويمكن استخدامه في العديد من أنواع أعباء عمل الذكاء الاصطناعي (AI) بالإضافة إلى الحوسبة عالية الأداء (HPC). من بين التعلم الآلي السائد، ستستفيد أحمال عمل HPC التقليدية وتحليلات البيانات من استخدامها بمفردها أو مع أجهزة أخرى مثل وحدات المعالجة المركزية (CPU) أو وحدات معالجة الرسومات. يدعم A100 أوضاع الدقة المتعددة، مما يعني أن وظائف مثل تدريب الشبكات العصبية الصغيرة والمتوسطة قد تعمل بشكل أسرع على هذه الشريحة مقارنة بالشريحة الأخرى؛ بالإضافة إلى ذلك، يتحسن أداء الاستدلال بشكل أفضل عندما يتم تنفيذ مهام حوسبة أكثر تنوعًا في وقت واحد باستخدام جميع الموارد المتاحة داخل نظام واحد. على الرغم من عدم وجود تحسينات متخصصة موجودة في وحدات GH200، تظل A100 ذات أداء قوي عبر مجالات الذكاء الاصطناعي والحوسبة عالية الأداء العامة.
ما هي التطبيقات المحتملة لـ NVIDIA DGX GH200؟

إحداث ثورة في مراكز البيانات مع GH200
يغير DGX GH200 من NVIDIA قواعد اللعبة بالنسبة لمراكز البيانات من خلال أدائه الذي لا مثيل له وقابلية التوسع عند التعامل مع أعباء عمل الذكاء الاصطناعي. فهو يساعدهم على معالجة مجموعات البيانات الضخمة بشكل أسرع من ذي قبل، وهو أمر مفيد في مهام مثل تدريب نماذج التعلم العميق، أو تشغيل عمليات محاكاة واسعة النطاق، أو معالجة المعلومات في الوقت الفعلي. وهذا مهم بشكل خاص في قطاعات مثل الرعاية الصحية، والتمويل، والأنظمة المستقلة، حيث يجب معالجة كميات هائلة من البيانات بسرعة ودقة.
من بين المزايا العديدة التي يقدمها GH200 التكامل مع شريحة Grace Hopper Superchip من NVIDIA، والتي توفر نطاق ترددي للذاكرة وقوة حوسبة غير عادية. وبفضل هذه الميزة المدمجة في البنية الأساسية، يمكن للمؤسسات تشغيل نماذج الذكاء الاصطناعي المعقدة بكفاءة أكبر مع إنشاء تطبيقات الذكاء الاصطناعي ذات المستوى الأعلى. كما يتمتع GH200 بهندسة تسمح بقدرة كبيرة على التوسع، بحيث يمكن إضافة الموارد حسب الحاجة دون تعطيل العمليات.
علاوة على ذلك، يمكن لـ GH200 التعامل مع مجموعة من الأعمال المختلفة، بدءًا من البحث العلمي وحتى التطبيقات التي تعمل بالذكاء الاصطناعي، مما يجعله مكونًا متعدد الاستخدامات داخل مراكز البيانات اليوم. إلى جانب انخفاض تكاليف التشغيل بسبب تحسين الأداء والكفاءة، هناك أيضًا وفورات أخرى على المدى الطويل نظرًا لأن هذه الأشياء ستستمر في التطور، وبالتالي الحماية المستقبلية ضد احتياجات التكنولوجيا المتغيرة ولكن لا تزال تضمن دائمًا قدرة إنتاجية عالية.
أجهزة الكمبيوتر العملاقة ذات الذكاء الاصطناعي في نماذج HPC وAI
تقود أجهزة الكمبيوتر العملاقة ذات الذكاء الاصطناعي مجال الحوسبة عالية الأداء ونماذج الذكاء الاصطناعي التي تدفع الابتكار عبر مختلف المجالات. تجمع هذه القدرات بين الذكاء الاصطناعي والحوسبة عالية الأداء في أنظمة مثل NVIDIA DGX GH200 لحل المشكلات الحسابية الصعبة وبالتالي تمكين الإنجازات العلمية والتطبيقات الصناعية.
تعمل أجهزة الكمبيوتر العملاقة التي تعمل بالذكاء الاصطناعي بشكل أفضل مع مجموعات البيانات الضخمة لأنها تستخدم أحدث الأجهزة وبنيات البرامج للحصول على نتائج سريعة ودقيقة في الذكاء الاصطناعي ومهام التعلم العميق. ونتيجة لذلك، يستطيع الباحثون تدريب النماذج الكبيرة بسرعة أكبر، وتقصير دورات التطوير، والحصول على رؤى أسرع. بالإضافة إلى ذلك، تعد المعالجة المتوازية أحد المجالات التي تتفوق فيها أجهزة الكمبيوتر العملاقة العاملة بالذكاء الاصطناعي من خلال تحسين أداء المحاكاة وسرعة مشروع النمذجة على نطاق واسع.
والجدير بالذكر أن النمذجة المناخية لم تكن لتصل إلى مستواها الحالي دون دمج أجهزة الكمبيوتر العملاقة العاملة بالذكاء الاصطناعي في بيئة الحوسبة عالية الأداء، وفقًا لمواقع مثل IBM أو Top500.org، والتي تتحدث أيضًا عن الأبحاث الجينومية، واكتشاف الأدوية، والنمذجة المالية. تتمتع هذه الآلات بقدرة معالجة هائلة مطلوبة للتعامل مع كميات هائلة من مجموعات البيانات، ودفع أفكار جديدة إلى الخوارزميات المستخدمة في الذكاء الاصطناعي، وتعزيز الأجيال القادمة من مثل هذه البرامج. بفضل قدراتها الحاسوبية الاستثنائية إلى جانب النطاق الترددي المتزايد للذاكرة، توفر هذه الأجهزة حلولاً قوية وقابلة للتطوير قادرة على تلبية أي متطلبات ديناميكية تفرضها HPC إلى جانب نماذج الذكاء الاصطناعي.
الآفاق المستقبلية في الحوسبة المتسارعة
سوف يؤدي الابتكار المستمر في الهندسة المعمارية والأجهزة والبرامج إلى تعزيز مستقبل الحوسبة عالية السرعة بشكل كبير. وكما أشارت NVIDIA وIntel وMicrosoft وغيرها من المصادر الرائدة، فمن المتوقع أن يؤدي تكامل الذكاء الاصطناعي مع HPCs إلى إحداث تغييرات أكثر جذرية في مختلف القطاعات. وأفادوا أيضًا أن تقدم GPU لم ينته بعد ولكنه لا يزال مستمرًا والذي سيشهد تطوير نماذج ذكاء اصطناعي معقدة جنبًا إلى جنب مع عمليات المحاكاة بسبب زيادة مستويات الأداء. يمكن للحوسبة الكمومية، وفقًا لشركة إنتل، حل المشكلات التي لم تكن قابلة للحل في السابق مع إنشاء حدود جديدة للقوة الحسابية من خلال استخدام البنى العصبية.
وتشير هذه التطورات مجتمعة إلى أنه سيتم تحسين كفاءة معالجة البيانات وتقليل وقت الحساب، وبالتالي دفع الاختراعات في مجالات مثل أنظمة السيارات ذاتية القيادة، والطب الشخصي، وأبحاث التخفيف من آثار علوم المناخ، من بين مجالات أخرى. بالإضافة إلى ذلك، ينبغي للتوقعات المستقبلية بشأن أساليب توفير الطاقة أن تأخذ بعين الاعتبار أيضًا تلبية التقنيات الصديقة للبيئة لأن ذلك سيساعد في تلبية الطلب المتزايد باستمرار على التنمية المستدامة في مختلف المجالات المتعلقة بتسريع العمليات الحسابية مع الحفاظ على التوازن طوال عملية نموها وفقًا للحفاظ على الطاقة.
كيفية تنفيذ منصة GH200 Grace Hopper Superchip؟

إعداد NVIDIA GH200 في مجموعتك
يلزم اتخاذ خطوات متعددة لإعداد برنامج التشغيل NVIDIA GH200 في مجموعتك، بدءًا من تثبيت الأجهزة وانتهاءً بتكوين البرنامج وتحسينه. أولاً، تأكد من أن أجهزة المجموعة الخاصة بك تلبي مواصفات GH200 وأن لديك ما يكفي من التبريد بالإضافة إلى ترتيبات مصدر الطاقة. قم بتوصيل بطاقات GH200 بشكل آمن بفتحات PCIe الصحيحة على خوادمك.
بعد ذلك، قم بتثبيت برامج التشغيل والمكتبات الضرورية. احصل على أحدث برامج تشغيل NVIDIA ومجموعة أدوات CUDA من موقعهم الإلكتروني؛ تعتبر هذه الحزم مهمة لتشغيل GH200 بشكل سليم مع تحسين الأداء أيضًا. بالإضافة إلى ذلك، تأكد من أنك تستخدم نظام تشغيل يدعم متطلبات برامج هذا النظام الأساسي. إذا لم يكن الأمر كذلك، فإن أي توزيعة Linux حديثة أخرى ستفي بالغرض لأنها تستفيد من جميع ميزات وحدة المعالجة المركزية NVIDIA Grace.
بمجرد تثبيت برامج التشغيل مع البرنامج، قم بتكوينها بحيث يتعرف عليها نظام الإدارة لديك بحيث يمكن استخدامها وفقًا لذلك داخل بيئة المجموعة. قد يتطلب هذا إجراء تعديلات على إعدادات مدير الموارد أو حتى تحديث إعدادات المجدول لتخصيص موارد وحدة معالجة الرسومات بكفاءة. على سبيل المثال، يمكن لـ SLURM أو Kubernetes التعامل مع جدولة وتخصيص وحدة معالجة الرسومات.
وأخيرًا، قم بضبط النظام بناءً على احتياجات عبء العمل من أجل تحسين مستويات الأداء التي تم تحقيقها أثناء استخدامه. استخدم أدوات ملفات التعريف المختلفة مثل NVIDIA Nsight plus NVML (مكتبة إدارة NVIDIA)، من بين أدوات أخرى تقدمها NVIDIA، لمراقبة الأداء بالإضافة إلى إجراء التعديلات اللازمة حيثما أمكن. حافظ على تحديث إصدارات البرامج الثابتة بالإضافة إلى تحديثات حزمة البرامج المنتظمة لأسباب تتعلق بالاستقرار الأمني المحسن. بهذه الطريقة يمكن للمرء ضمان الكفاءة والفعالية عند العمل ضمن مجموعاته الحسابية باستخدام نهج شامل لإعداد جهاز NVIDIA GH200 معين.
تحسين أحمال عمل الذكاء الاصطناعي على DGX GH200
عندما يتعلق الأمر بـ DGX GH200، يمكن تحسين أحمال عمل الذكاء الاصطناعي من خلال اتباع الممارسات الجيدة لإعداد البرامج وتكوين الأجهزة، خاصة مع ذاكرة HBM3E. أولاً، تأكد من أن إطار عمل الذكاء الاصطناعي لديك، مثل TensorFlow أو PyTorch، متوافق تمامًا مع إصدارات CUDA وcuDNN على نظامك. يمكن أن يؤدي تمكين التدريب على الدقة المختلطة إلى تسريع العمليات الحسابية دون فقدان دقة النموذج.
علاوة على ذلك، ينبغي للمرء استخدام تقنيات التدريب الموزعة التي تعمل على توسيع نطاق التدريب عبر وحدات معالجة الرسومات المتعددة بشكل فعال باستخدام مكتبات مثل Horovod. يمكنك تحسين استخدام الذاكرة وكفاءة الحساب باستخدام الدقة المختلطة التلقائية (AMP). يُقترح أيضًا الاستفادة من Deep Learning AMI من NVIDIA بالإضافة إلى حاويات NGC التي تأتي مُهيأة مسبقًا بأحدث التحسينات لأعباء عمل الذكاء الاصطناعي المختلفة.
راقب كيفية أداء النظام من خلال المراقبة المنتظمة من خلال Nsight Systems وNsight Compute - أدوات ملفات التعريف الخاصة بـ NVIDIA؛ سيساعدك هذا على موازنة تحميل تكوينات وحدة معالجة الرسومات لتحقيق أقصى قدر من الإنتاجية. من خلال القيام بهذه الأشياء، ستعزز بشكل كبير أداء عبء عمل الذكاء الاصطناعي على DGX GH200 من حيث السرعة والفعالية.
أفضل الممارسات لاستخدام Grace CPU وHopper GPU
لتحقيق أقصى قدر من الأداء لوحدات المعالجة المركزية Grace ووحدات معالجة الرسوميات Hopper، من الضروري الالتزام بالعديد من أفضل الممارسات وفقًا للتوصيات الحديثة من مصادر الصناعة الرائدة. أولاً، تأكد من تحسين حزمة البرامج الخاصة بك لأحمال العمل المختلطة لوحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU). استخدم مجموعات تطوير البرامج (SDKs) من NVIDIA، مثل CUDA وcuDNN، المصممة خصيصًا للاستفادة من القدرات الحسابية لوحدات المعالجة المركزية Grace ووحدات معالجة الرسوميات Hopper. بالإضافة إلى ذلك، قم بتنفيذ تقنيات توازي البيانات الفعالة مع الخوارزميات المحسنة لموازنة حمل الحساب بين المعالجين.
يجب أن تعطي بنية النظام الأولوية لخفض زمن الوصول مع زيادة عرض النطاق الترددي بين وحدة المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPUs). ويمكن تحقيق ذلك من خلال استخدام وصلات بينية عالية السرعة مثل NVLink التي تتيح معدلات نقل أسرع للبيانات، وبالتالي تقليل الاختناقات. علاوة على ذلك، يمكن ضبط معلمات الأداء بشكل مستمر باستخدام أدوات ملفات التعريف مثل NVIDIA Nsight.
يمكن تحقيق مكاسب كبيرة في الأداء عند استخدام التدريب الدقيق المختلط لمهام الذكاء الاصطناعي/التعلم الآلي جنبًا إلى جنب مع الأطر المحسنة للاستخدام على وحدات المعالجة المركزية Grace ووحدات معالجة الرسوميات Hopper. تضمن هذه الطريقة الاستخدام الأمثل للموارد أثناء التدريب من خلال توزيع هذه المهام بكفاءة باستخدام مكتبات مثل Horovod.
في النهاية، تعد مواكبة تحديثات البرامج الثابتة الأخيرة بالإضافة إلى برامج التشغيل التي توفرها NVIDIA أمرًا إلزاميًا لأنها عادةً ما تأتي مرفقة بإصلاحات الأخطاء وتحسينات الأداء التي تهدف إلى تعزيز الاستقرار بالإضافة إلى الكفاءة ضمن العمليات الحسابية المختلفة التي يتم إجراؤها عليها. مع هذه المجموعة من الإرشادات، يجب أن يكون الشخص قادرًا على الاستفادة بشكل كامل مما تحتويه وحدات المعالجة المركزية Grace ووحدات معالجة الرسوميات Hopper تحت سواعده، وبالتالي تجربة الحوسبة السكينة من حيث المثالية لكل من السرعة واستهلاك الطاقة!
مصادر مرجعية
الأسئلة الشائعة (FAQs)
س: ما هي شريحة NVIDIA GH200 Grace Hopper Superchip؟
ج: ماذا يعني هذا بالنسبة لرقاقة NVIDIA GH200 Grace Hopper Superchip؟ من خلال الجمع بين طاقة وحدة معالجة الرسومات ووحدة المعالجة المركزية في حزمة واحدة مُحسّنة للحوسبة السريعة وأحمال عمل الذكاء الاصطناعي التوليدية، فهو يتميز بوحدة معالجة رسومات تعتمد على بنية Hopper ووحدة معالجة مركزية قوية مرتبطة بذاكرة عالية الأداء متماسكة مع كليهما من خلال الكثير من النطاق الترددي.
س: كيف يختلف GH200 عن NVIDIA A100؟
ج: تم تصميم NVIDIA A100 بشكل أساسي لمهام مثل تدريب الذكاء الاصطناعي والاستدلال، ولكن ما يجعله مختلفًا عن GH200 هو أنه على الرغم من أنه يمكن القيام بهذه الأشياء عليه أيضًا إلى حد ما، إلا أنه يتمتع أيضًا بخصائص أخرى. إحدى هذه الخصائص هي التكامل مع ذاكرة HBM3 الأكثر تقدمًا جنبًا إلى جنب مع وحدة معالجة الرسومات وكذلك نوى وحدة المعالجة المركزية، مما يسمح لنا بإجراء عمليات حسابية أكثر تعقيدًا تتضمن حركة البيانات بين أجزاء مختلفة من نظامنا، وبالتالي مضاعفة الكفاءة في حالات معينة حيث يتم تلبية متطلبات عبء العمل وفقاً لذلك.
س: ما هي المزايا التي يوفرها نظام DGX H100؟
ج: تحتاج نماذج اللغات الكبيرة إلى قدر كبير من الأداء، وهذا بالضبط ما تحصل عليه عند تشغيلها على أنظمة DGX H100 التي تعمل بواسطة NVIDIA GH200 Grace Hopper Superchips. تتمتع هذه الأجهزة بوصلات بينية عالية السرعة مثل NVLink-C2C، من بين العديد من الأجهزة الأخرى، ونطاق ترددي كبير للذاكرة، لذلك لا ينبغي أن يكون مفاجئًا أن يصبح معدل نقل البيانات أعلى من أي وقت مضى، مما يجعل كل شيء يسير بشكل أسرع وأكثر سلاسة أيضًا!
س: ما هو الدور الذي تلعبه NVIDIA AI Enterprise في استخدام GH200؟
ج: تساعد NVIDIA AI Enterprise الشركات على استخدام أدوات الحوسبة المتسارعة مع أقصى قدرات ذاكرة وحدة معالجة الرسوميات. ويتم تحقيق ذلك من خلال الاستفادة من GHCPU وGPUMEMORYSPEED، وهما ميزتان يقدمهما مجموعة البرامج لضمان الاستخدام الفعّال للموارد أثناء تطبيقات الحوسبة المتسارعة مثل نماذج التعلم العميق التي تستخدم كميات هائلة من البيانات المخزنة داخل مجموعات بيانات كبيرة.
س: كيف تعمل ذاكرة HBM3 على تحسين شريحة GH200 Grace Hopper Superchip؟
ج: بالنسبة لرقاقة GH200 Grace Hopper Superchip، تعمل ذاكرة HBM3 على تعزيز عرض النطاق الترددي لبيانات وحدة معالجة الرسومات بشكل كبير. يتيح ذلك معدلات نقل أسرع، وبالتالي تحسين الأداء عندما يتعلق الأمر بالمهام التي تتطلب قدرًا كبيرًا من الذاكرة، مثل الذكاء الاصطناعي وأحمال العمل التوليدية، والتي تتعامل عادةً مع مجموعات البيانات الكبيرة.
س: ما أهمية NVIDIA NVLink-C2C في GH200؟
ج: تكمن أهمية NVIDIA NVLink-C2C في GH200 في أنه يسمح لأجهزة الكمبيوتر بالتواصل مع بعضها البعض بسرعات عالية. فهو يربط بين وحدة المعالجة المركزية ووحدة معالجة الرسومات داخل GH200، مما يوفر نطاقًا تردديًا عاليًا لنقل البيانات بكفاءة مع الحد الأدنى من الكمون. يربط هذا الاتصال مساحة ذاكرة وحدة المعالجة المركزية بمساحة ذاكرة وحدة معالجة الرسومات وبالتالي إنشاء التماسك بينهما الضروري للتشغيل السلس أثناء المهام الحسابية المعقدة.
س: كيف سيؤثر جهاز GH200 على عصر الحوسبة المتسارعة؟
ج: تعد شريحة GH200 من مركز Grace Hopper Supercomputing Center (GHSC) بمثابة تغيير لقواعد اللعبة بالنسبة للحوسبة المتسارعة لأنها تجمع بين وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) تحت سقف واحد مع تعزيز قدرات الذاكرة والتوصيل البيني بشكل كبير. تم تصميم هذا التكامل لتلبية الطلبات المتزايدة الناجمة عن أعباء عمل الذكاء الاصطناعي التوليدية إلى جانب معالجة البيانات على نطاق واسع.
س: ما الذي تفعله NVIDIA Base Command داخل النظام البيئي لـ GH200؟
ج: ضمن هذا النظام، يعمل NVIDIA Base Command كمنصة شاملة لإدارة وتنظيم سير عمل الذكاء الاصطناعي على GH200. فهو يضمن سهولة التنفيذ والتتبع وتوسيع نماذج الذكاء الاصطناعي أو تقليصها، وبالتالي تمكين الشركات من الاستفادة الكاملة مما يقدمه GH200.
س: كيف تدعم شريحة GH200 Grace Hopper Superchip الجديدة نماذج اللغات الكبيرة؟
ج: تشكل ذاكرة LPDDR5X، من بين أشياء أخرى، جزءًا من بنيتها المتقدمة، والتي تمكنها من معالجة نماذج اللغات الكبيرة وتدريبها بشكل أكثر فعالية مما يمكن لأي جهاز آخر متاح اليوم أن يأمل في تحقيقه لمثل هذه الأغراض. إلى جانب وجود كميات كبيرة من النطاق الترددي للذاكرة تحت تصرفها، فإنها تؤدي أيضًا عمليات حسابية متوازية بشكل جيد للغاية، مما يعني أنه لا توجد قطعة أخرى أكثر ملاءمة لهذه الأنواع من التطبيقات من هذه الشريحة.
المنتجات ذات الصلة:
-
NVIDIA MMA4Z00-NS400 متوافق مع 400G OSFP SR4 مسطح علوي PAM4 850 نانومتر 30 متر على OM3 / 50m على وحدة الإرسال والاستقبال البصرية OM4 MTP / MPO-12 Multimode FEC $550.00
-
NVIDIA MMA4Z00-NS-FLT متوافق مع 800Gb / s ثنائي المنفذ OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF وحدة الإرسال والاستقبال البصرية $650.00
-
NVIDIA MMA4Z00-NS متوافق مع 800Gb / s ثنائي المنافذ OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF وحدة الإرسال والاستقبال الضوئية $650.00
-
NVIDIA MMS4X00-NM متوافق مع 800Gb / s ثنائي المنفذ OSFP 2x400G PAM4 1310nm 500m DOM Dual MTP / MPO-12 SMF وحدة الإرسال والاستقبال البصرية $900.00
-
NVIDIA MMS4X00-NM-FLT متوافق مع 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP / MPO-12 SMF وحدة الإرسال والاستقبال البصرية $1199.00
-
NVIDIA MMS4X00-NS400 متوافق 400G OSFP DR4 Flat Top PAM4 1310nm MTP / MPO-12m SMF FEC وحدة الإرسال والاستقبال البصرية $700.00
-
Mellanox MMA1T00-HS متوافق 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 وحدة الإرسال والاستقبال الضوئية $139.00
-
NVIDIA MFP7E10-N010 متوافق مع 10 متر (33 قدم) 8 ألياف فقدان إدخال منخفض أنثى إلى أنثى MPO كابل جذع قطبية B APC إلى APC LSZH متعدد الأوضاع OM3 50/125 $47.00
-
NVIDIA MCP7Y00-N003-FLT متوافق مع 3m (10ft) 800G ثنائي المنفذ OSFP إلى 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $260.00
-
NVIDIA MCP7Y70-H002 متوافق مع 2 متر (7 قدم) 400 جيجا منفذ مزدوج 2x200G OSFP إلى 4x100G QSFP56 كابل نحاسي متصل مباشرًا بالاختراق السلبي $155.00
-
NVIDIA MCA4J80-N003-FTF متوافق مع 3m (10ft) 800G ثنائي المنفذ 2x400G OSFP إلى 2x400G OSFP InfiniBand NDR كابل نحاسي نشط، جزء علوي مسطح من أحد الطرفين وجزء علوي زعانف من الطرف الآخر $600.00
-
NVIDIA MCP7Y10-N002 متوافق مع 2 متر (7 قدم) 800 جيجا InfiniBand NDR ثنائي المنفذ OSFP إلى 2x400 جيجا QSFP112 Breakout DAC $190.00