قال الرئيس التنفيذي لشركة Nvidia Jensen Huang ذلك في مؤتمر صحفي يوم الثلاثاء. أصدرت Nvidia بالأمس جيلًا جديدًا من منصة GH200 Grace Hopper فائقة الرقائق ، والتي تم تصميمها خصيصًا لعصر الحوسبة المتسارعة والذكاء الاصطناعي التوليدي.
أشار Huang Renxun إلى أنه من أجل تلبية الطلب المتزايد على الذكاء الاصطناعي التوليدي ، يحتاج مركز البيانات إلى نظام حوسبة متسارع لذوي الاحتياجات الخاصة. توفر منصة شرائح GH200 الجديدة تقنية ذاكرة فائقة وعرض النطاق الترددي ، والقدرة على توصيل وحدات معالجة الرسومات لتجميع الأداء دون خسارة ، ولديها تصميم خادم يمكن نشره بسهولة في جميع أنحاء مركز البيانات. **
ومن الجدير بالذكر أن ظهور موجة من النماذج واسعة النطاق قد ولّد العديد من التطبيقات الأصلية للذكاء الاصطناعي ، مما أدى إلى زيادة الطلب على قوة الحوسبة.إن سوق مركز البيانات المخصص لتطبيقات الذكاء الاصطناعي كثيفة البيانات آخذ في الظهور بسرعة.
يفتح مركز البيانات تغييرات جديدة
يلاحظ المحللون أنه مع تسابق موفري الحوسبة السحابية الراسخة في تعديل مراكز البيانات بشرائح متقدمة وترقيات أخرى لتلبية متطلبات برامج الذكاء الاصطناعي ، يرى بعض البناة المبتدئين فرصة لبناء منشآت جديدة من الصفر.
يشبه مركز البيانات مستودعًا كبيرًا مزودًا بأرفف متعددة من الخوادم والشبكات ومعدات التخزين لتخزين البيانات ومعالجتها. بالمقارنة مع مراكز البيانات التقليدية ، تمتلك مراكز بيانات الذكاء الاصطناعي المزيد من الخوادم التي تستخدم شرائح عالية الأداء ، وبالتالي فإن متوسط استهلاك الطاقة لكل رف من خوادم مركز بيانات الذكاء الاصطناعي يمكن أن يصل إلى 50 كيلوواط أو أكثر ، في حين أن كل رف من مراكز البيانات التقليدية يستهلك الطاقة حوالي 7 كيلوواط.
** هذا يعني أن مركز بيانات الذكاء الاصطناعي بحاجة إلى بناء المزيد من البنية التحتية التي يمكن أن توفر طاقة أعلى. نظرًا لأن الاستهلاك الإضافي للطاقة سيولد مزيدًا من الحرارة ، فإن مركز بيانات الذكاء الاصطناعي يحتاج أيضًا إلى طرق تبريد أخرى ** ، مثل التبريد السائل لحماية الجهاز من الحرارة الزائدة.
وأشار Manju Naglapur ، نائب الرئيس الأول في شركة الخدمات والاستشارات Unisys:
** يمكن لمراكز بيانات الذكاء الاصطناعي المصممة لغرض معين أن تستوعب خوادم تستخدم شرائح الذكاء الاصطناعي مثل وحدات معالجة الرسومات من Nvidia ، مما يسمح بتشغيل عمليات حسابية متعددة بشكل متزامن بينما تقوم تطبيقات الذكاء الاصطناعي بالتنقيط في مخازن البيانات الضخمة. ** تم تجهيز مراكز البيانات هذه أيضًا بشبكات ألياف بصرية وأجهزة تخزين أكثر كفاءة لدعم نماذج الذكاء الاصطناعي واسعة النطاق.
مراكز بيانات الذكاء الاصطناعي هي مباني عالية التخصص تتطلب استثمارًا كبيرًا من المال والوقت. وفقًا لبيانات من شركة الأبحاث Data Bridge Market Research ، بحلول عام 2029 ، من المتوقع أن يصل الإنفاق على سوق البنية التحتية العالمية للذكاء الاصطناعي إلى 422.55 مليار دولار أمريكي ، بمعدل نمو سنوي مركب يبلغ 44٪ على مدى السنوات الست المقبلة.
قال الرئيس التنفيذي لبنك داتا بنك ، راؤول مارتينيك ، إن وتيرة نشر الذكاء الاصطناعي من المرجح أن تؤدي إلى نقص في سعة مركز البيانات في الأشهر الـ 12 إلى الـ 24 المقبلة.
AI Computing Rookie يحصل على تمويل بقيمة 2.3 مليار دولار
في الوقت الحاضر ، تراهن العديد من الشركات العملاقة على مراكز بيانات الذكاء الاصطناعي ، وتبيع Blackstone "معيار العقارات" المنازل وتتحول إلى مراكز بيانات AI. قالت Meta أيضًا إنها ستبني مركزًا جديدًا لبيانات الذكاء الاصطناعي.
كما ورد في المقال السابق ، حصلت CoreWeave ، وهي شركة مبتدئة في قوة حوسبة الذكاء الاصطناعي ، على قرض رهن عقاري من Nvidia H100 وحصلت على تمويل ديون بقيمة 2.3 مليار دولار أمريكي (حوالي 16.5 مليار يوان).
** قالت CoreWeave أن الأموال ستُستخدم لتسريع بناء مراكز بيانات الذكاء الاصطناعي ، وهو تمويل آخر بعد أن تلقت الشركة 221 مليون دولار في أبريل من هذا العام و 200 مليون دولار في مايو. تأسست CoreWeave منذ ست سنوات ، ولديها بالفعل سبعة مراكز بيانات للذكاء الاصطناعي على الإنترنت وتتوقع مضاعفة ذلك بحلول نهاية هذا العام.
تعمل CoreWeave مع Nvidia و Inflection AI لبناء مجموعة خوادم AI كبيرة للغاية ، بهدف تشغيل 22000 Nvidia H100s. ** في حالة اكتماله ، سيصبح أكبر مجموعة خوادم AI في العالم. **
من الجدير بالذكر أنه وفقًا لموقع CoreWeave الرسمي على الويب ، فإن خدماتهم أرخص بنسبة 80٪ من بائعي الحوسبة السحابية التقليدية. يبدأ أحدث خادم HGX H100 من Nvidia ، والذي يحتوي على 8 H100s مع ذاكرة فيديو 80G وذاكرة 1T ، بسعر 2.23 دولارًا فقط في الساعة (16 RMB). **
مقارنة بمنصة الجيل السابق ، يعمل التكوين ثنائي الشريحة لمنصة GH200 Grace Hopper الجديدة على زيادة سعة الذاكرة بمقدار 3.5 مرة وعرض النطاق الترددي بثلاث مرات.يحتوي خادم واحد على 144 نواة عالية الأداء من Arm Neoverse و 8 بيتافلوبات لأداء AI و أحدث تقنية ذاكرة HBM3e بسعة 282 جيجابايت.
لا عجب أنه في عصر انفجار LLM ، لا يزال Huang Renxun يقول بجرأة "كلما اشتريت أكثر ، كلما وفرت أكثر"!
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
طموح Nvidia: "الذكاء الاصطناعي الأصلي" يفسد مركز البيانات تمامًا
المصدر: وول ستريت نيوز
المؤلف: تشاو ينغ
قال الرئيس التنفيذي لشركة Nvidia Jensen Huang ذلك في مؤتمر صحفي يوم الثلاثاء. أصدرت Nvidia بالأمس جيلًا جديدًا من منصة GH200 Grace Hopper فائقة الرقائق ، والتي تم تصميمها خصيصًا لعصر الحوسبة المتسارعة والذكاء الاصطناعي التوليدي.
أشار Huang Renxun إلى أنه من أجل تلبية الطلب المتزايد على الذكاء الاصطناعي التوليدي ، يحتاج مركز البيانات إلى نظام حوسبة متسارع لذوي الاحتياجات الخاصة. توفر منصة شرائح GH200 الجديدة تقنية ذاكرة فائقة وعرض النطاق الترددي ، والقدرة على توصيل وحدات معالجة الرسومات لتجميع الأداء دون خسارة ، ولديها تصميم خادم يمكن نشره بسهولة في جميع أنحاء مركز البيانات. **
ومن الجدير بالذكر أن ظهور موجة من النماذج واسعة النطاق قد ولّد العديد من التطبيقات الأصلية للذكاء الاصطناعي ، مما أدى إلى زيادة الطلب على قوة الحوسبة.إن سوق مركز البيانات المخصص لتطبيقات الذكاء الاصطناعي كثيفة البيانات آخذ في الظهور بسرعة.
يفتح مركز البيانات تغييرات جديدة
يلاحظ المحللون أنه مع تسابق موفري الحوسبة السحابية الراسخة في تعديل مراكز البيانات بشرائح متقدمة وترقيات أخرى لتلبية متطلبات برامج الذكاء الاصطناعي ، يرى بعض البناة المبتدئين فرصة لبناء منشآت جديدة من الصفر.
يشبه مركز البيانات مستودعًا كبيرًا مزودًا بأرفف متعددة من الخوادم والشبكات ومعدات التخزين لتخزين البيانات ومعالجتها. بالمقارنة مع مراكز البيانات التقليدية ، تمتلك مراكز بيانات الذكاء الاصطناعي المزيد من الخوادم التي تستخدم شرائح عالية الأداء ، وبالتالي فإن متوسط استهلاك الطاقة لكل رف من خوادم مركز بيانات الذكاء الاصطناعي يمكن أن يصل إلى 50 كيلوواط أو أكثر ، في حين أن كل رف من مراكز البيانات التقليدية يستهلك الطاقة حوالي 7 كيلوواط.
** هذا يعني أن مركز بيانات الذكاء الاصطناعي بحاجة إلى بناء المزيد من البنية التحتية التي يمكن أن توفر طاقة أعلى. نظرًا لأن الاستهلاك الإضافي للطاقة سيولد مزيدًا من الحرارة ، فإن مركز بيانات الذكاء الاصطناعي يحتاج أيضًا إلى طرق تبريد أخرى ** ، مثل التبريد السائل لحماية الجهاز من الحرارة الزائدة.
وأشار Manju Naglapur ، نائب الرئيس الأول في شركة الخدمات والاستشارات Unisys:
مراكز بيانات الذكاء الاصطناعي هي مباني عالية التخصص تتطلب استثمارًا كبيرًا من المال والوقت. وفقًا لبيانات من شركة الأبحاث Data Bridge Market Research ، بحلول عام 2029 ، من المتوقع أن يصل الإنفاق على سوق البنية التحتية العالمية للذكاء الاصطناعي إلى 422.55 مليار دولار أمريكي ، بمعدل نمو سنوي مركب يبلغ 44٪ على مدى السنوات الست المقبلة.
قال الرئيس التنفيذي لبنك داتا بنك ، راؤول مارتينيك ، إن وتيرة نشر الذكاء الاصطناعي من المرجح أن تؤدي إلى نقص في سعة مركز البيانات في الأشهر الـ 12 إلى الـ 24 المقبلة.
AI Computing Rookie يحصل على تمويل بقيمة 2.3 مليار دولار
في الوقت الحاضر ، تراهن العديد من الشركات العملاقة على مراكز بيانات الذكاء الاصطناعي ، وتبيع Blackstone "معيار العقارات" المنازل وتتحول إلى مراكز بيانات AI. قالت Meta أيضًا إنها ستبني مركزًا جديدًا لبيانات الذكاء الاصطناعي.
كما ورد في المقال السابق ، حصلت CoreWeave ، وهي شركة مبتدئة في قوة حوسبة الذكاء الاصطناعي ، على قرض رهن عقاري من Nvidia H100 وحصلت على تمويل ديون بقيمة 2.3 مليار دولار أمريكي (حوالي 16.5 مليار يوان).
** قالت CoreWeave أن الأموال ستُستخدم لتسريع بناء مراكز بيانات الذكاء الاصطناعي ، وهو تمويل آخر بعد أن تلقت الشركة 221 مليون دولار في أبريل من هذا العام و 200 مليون دولار في مايو. تأسست CoreWeave منذ ست سنوات ، ولديها بالفعل سبعة مراكز بيانات للذكاء الاصطناعي على الإنترنت وتتوقع مضاعفة ذلك بحلول نهاية هذا العام.
تعمل CoreWeave مع Nvidia و Inflection AI لبناء مجموعة خوادم AI كبيرة للغاية ، بهدف تشغيل 22000 Nvidia H100s. ** في حالة اكتماله ، سيصبح أكبر مجموعة خوادم AI في العالم. **
من الجدير بالذكر أنه وفقًا لموقع CoreWeave الرسمي على الويب ، فإن خدماتهم أرخص بنسبة 80٪ من بائعي الحوسبة السحابية التقليدية. يبدأ أحدث خادم HGX H100 من Nvidia ، والذي يحتوي على 8 H100s مع ذاكرة فيديو 80G وذاكرة 1T ، بسعر 2.23 دولارًا فقط في الساعة (16 RMB). **
مقارنة بمنصة الجيل السابق ، يعمل التكوين ثنائي الشريحة لمنصة GH200 Grace Hopper الجديدة على زيادة سعة الذاكرة بمقدار 3.5 مرة وعرض النطاق الترددي بثلاث مرات.يحتوي خادم واحد على 144 نواة عالية الأداء من Arm Neoverse و 8 بيتافلوبات لأداء AI و أحدث تقنية ذاكرة HBM3e بسعة 282 جيجابايت.
لا عجب أنه في عصر انفجار LLM ، لا يزال Huang Renxun يقول بجرأة "كلما اشتريت أكثر ، كلما وفرت أكثر"!