لقد قامت Google دائمًا ببناء إمكانات الذكاء الاصطناعي الرائدة في الصناعة، مثل بنية Transformer التي تقود تطوير جيل جديد من الذكاء الاصطناعي، والبنية التحتية التي تستخدم الذكاء الاصطناعي من أجل التحسين. من بينها، تلتزم Google Cloud بتوفير خدمات البنية التحتية المتقدمة للذكاء الاصطناعي، بما في ذلك GPU وTPU.
في 29 أغسطس بالتوقيت المحلي، عقدت Google Cloud المؤتمر السنوي Google Cloud Next '23 وأطلقت منتج TPU جديدًا - Cloud TPU v5e، وهو عبارة عن مجموعة منتجات بنية تحتية محسنة للذكاء الاصطناعي وستصبح الأكثر فعالية من حيث التكلفة حتى الآن. سحابة TPU متعددة الاستخدامات وقابلة للتطوير. نسخة المعاينة متاحة حاليا.
لقد تعلمنا أن TPU v5e يمكن دمجه مع Google Kubernetes Engine (GKE)، وVertex AI، وهي أداة مطور لبناء النماذج وتطبيقات الذكاء الاصطناعي، وأطر التعلم العميق مثل Pytorch، وJAX، وTensorFlow، مما يوفر وسيلة سهلة الاستخدام وسهلة الاستخدام. واجهة مألوفة، من السهل جدًا البدء.
أطلقت Google Cloud أيضًا A3 VMs، وهو كمبيوتر فائق السرعة يعتمد على وحدة معالجة الرسومات GPU من Nvidia H100، لتوفير الدعم لنماذج الذكاء الاصطناعي واسعة النطاق. سيكون هذا المنتج متاحًا بشكل عام في سبتمبر.
* الرئيس التنفيذي لشركة جوجل بيتشاي. *
**تغريدة كتبها جيف دين، كبير العلماء في Google والأكاديمي الشهير. *
بالإضافة إلى ذلك، أعلنت Google أيضًا في هذا الحدث أنها ستضيف أدوات الذكاء الاصطناعي (مثل Llama 2 وClaude 2) من شركات مثل Meta وAnthropic إلى منصتها السحابية، مما يؤدي إلى دمج قدرات الذكاء الاصطناعي التوليدية القوية في المنتجات السحابية. حاليًا، بما في ذلك Llama 2 وClaude 2، يتمتع عملاء Google Cloud بإمكانية الوصول إلى أكثر من 100 نموذج وأدوات قوية للذكاء الاصطناعي.
مقارنة بـ TPU v4، في أي جوانب تمت ترقية TPU v5e
ما هو أداء وسهولة استخدام TPU v5e الذي أطلقته Google Cloud هذه المرة؟ دعونا نرى المقبل.
وفقًا للبيانات الرسمية، يوفر Cloud TPU v5e أداءً عاليًا وفعالية من حيث التكلفة للتدريب والاستدلال على نطاق متوسط وكبير. يمكن القول أن هذا الجيل من TPU مصمم خصيصًا لنماذج اللغات الكبيرة ونماذج الذكاء الاصطناعي التوليدية، وبالمقارنة مع الجيل السابق من TPU v4، يمكن زيادة أداء التدريب لكل دولار بما يصل إلى مرتين، ويمكن زيادة أداء الاستدلال لكل دولار. زيادة تصل إلى 2.5 مرة. كما أن تكلفة TPU v5e أقل من نصف تكلفة TPU v4، مما يمنح المزيد من المؤسسات الفرصة لتدريب ونشر نماذج ذكاء اصطناعي أكبر وأكثر تعقيدًا.
*شريحة TPU v5e. *
ومن الجدير بالذكر أنه بفضل الابتكار التكنولوجي، لا تتطلب فوائد التكلفة هذه أي تضحية بالأداء أو المرونة. تستخدم Google Cloud وحدات TPU v5e لتحقيق التوازن بين الأداء والمرونة والكفاءة، مما يسمح بما يصل إلى 256 شريحة ربط بينية، وإجمالي عرض النطاق الترددي يتجاوز 400 تيرابايت/ثانية، وأداء INT8 يصل إلى 100 بيتا أوبس.
* تفاصيل شريحة ثنائية الأبعاد لـ TPU v5e. *
يتمتع TPU v5e أيضًا بتعدد استخدامات قوي، حيث يدعم ثمانية تكوينات مختلفة للأجهزة الافتراضية، ويمكن أن يتراوح عدد الشرائح في الشريحة الواحدة من واحدة إلى 256، مما يسمح للعملاء باختيار التكوين المناسب لدعم نماذج اللغات الكبيرة وأنظمة الذكاء الاصطناعي التوليدية بمقاييس مختلفة.
بالإضافة إلى كونه أكثر قوة وفعالية من حيث التكلفة، فإن جهاز TPU v5e يرتقي أيضًا بسهولة الاستخدام إلى مستوى جديد تمامًا. يمكن الآن للعملاء استخدام Google Kubernetes Engine (GKE) لإدارة تنسيق أعباء عمل الذكاء الاصطناعي على نطاق واسع على TPU v5e وTPU v4، وبالتالي تحسين كفاءة تطوير الذكاء الاصطناعي. بالنسبة للمؤسسات التي تفضل الاستضافة البسيطة، تدعم Vertex AI الآن استخدام أجهزة Cloud TPU الافتراضية لتدريب أطر العمل والمكتبات المختلفة.
بالإضافة إلى ذلك، كما ذكرنا سابقًا، يوفر Cloud TPU v5e دعمًا مدمجًا لأطر عمل الذكاء الاصطناعي الرائدة مثل JAX وPyTorch وTensorFlow، بالإضافة إلى الأدوات الشائعة مفتوحة المصدر (Huggingface's Transformers and Accelerate وPyTorch Lightning وRay). سيدعم الإصدار القادم من PyTorch/XLA 2.1 تقنية TPU v5e وميزات جديدة مثل النمذجة وتوازي البيانات للتدريب على النماذج واسعة النطاق.
أخيرًا، من أجل توسيع نطاق العمل التدريبي بسهولة أكبر، قدمت Google Cloud تقنية Multislice في إصدار المعاينة من TPU v5e، مما يسمح للمستخدمين بتوسيع نموذج الذكاء الاصطناعي بسهولة، ويمكنهم تجاوز نطاق كبسولات TPU المادية، والتي يمكن أن تستوعب ما يصل إلى عشرات الآلاف من رقائق TPU v5e أو TPU v4.
*استخدام شرائح TPU متعددة لتحقيق قياس الأداء الخطي. *
اعتبارًا من الآن، يقتصر التدريب على استخدام TPU على شريحة TPU واحدة، والحد الأقصى لعدد الشرائح لـ TPU v4 هو 3,072. باستخدام Multislice، يمكن للمطورين توسيع نطاق أعباء العمل إلى عشرات الآلاف من الرقائق باستخدام تقنية ICI (Intra-Chip Interconnect) داخل حاوية واحدة أو عبر منصات متعددة على شبكة مركز البيانات (DCN).
تعمل تقنية التقطيع متعددة الطبقات هذه على تمكين Google من بناء نموذج PaLM المتطور الخاص بها. والآن يمكن لعملاء Google Cloud أيضًا تجربة هذه التقنية.
لقد حظي جهاز TPU v5e الذي تمت ترقيته بتقدير كبير من قبل العملاء. قال دومينيك دوناتو، نائب رئيس التكنولوجيا في شركة AssemblyAI، إنه عند استخدام TPU v5e لتشغيل الاستدلال على نماذج ASR (التعرف التلقائي على الكلام)، فإن الأداء لكل دولار هو دائمًا 4 أضعاف أداء الحلول المماثلة في السوق. يمكن لهذا المزيج القوي من الأجهزة والبرامج توفير حلول ذكاء اصطناعي أكثر فعالية من حيث التكلفة لعملائها.
مع استمرار Google Cloud في ترقية بنيتها التحتية للذكاء الاصطناعي، سيختار المزيد والمزيد من العملاء استخدام خدمات Google Cloud. وفقًا للمقدمة السابقة لشركة أبلابت، الشركة الأم لشركة جوجل، فإن أكثر من نصف الشركات الناشئة في مجال الذكاء الاصطناعي تستخدم منصة الحوسبة السحابية من جوجل.
بالنسبة لشركة Google، يعد Cloud TPU v5e مقدمة لمزيد من التغيير في نموذج المنتج وتمكين عملاء السحابة.
رابط المرجع:
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
ترقية رئيسية لرقاقة الذكاء الاصطناعي من Google: تستهدف النماذج الكبيرة والذكاء الاصطناعي التوليدي، وكذلك دمج أطر التعلم العميق السائدة
لقد قامت Google دائمًا ببناء إمكانات الذكاء الاصطناعي الرائدة في الصناعة، مثل بنية Transformer التي تقود تطوير جيل جديد من الذكاء الاصطناعي، والبنية التحتية التي تستخدم الذكاء الاصطناعي من أجل التحسين. من بينها، تلتزم Google Cloud بتوفير خدمات البنية التحتية المتقدمة للذكاء الاصطناعي، بما في ذلك GPU وTPU.
في 29 أغسطس بالتوقيت المحلي، عقدت Google Cloud المؤتمر السنوي Google Cloud Next '23 وأطلقت منتج TPU جديدًا - Cloud TPU v5e، وهو عبارة عن مجموعة منتجات بنية تحتية محسنة للذكاء الاصطناعي وستصبح الأكثر فعالية من حيث التكلفة حتى الآن. سحابة TPU متعددة الاستخدامات وقابلة للتطوير. نسخة المعاينة متاحة حاليا.
لقد تعلمنا أن TPU v5e يمكن دمجه مع Google Kubernetes Engine (GKE)، وVertex AI، وهي أداة مطور لبناء النماذج وتطبيقات الذكاء الاصطناعي، وأطر التعلم العميق مثل Pytorch، وJAX، وTensorFlow، مما يوفر وسيلة سهلة الاستخدام وسهلة الاستخدام. واجهة مألوفة، من السهل جدًا البدء.
أطلقت Google Cloud أيضًا A3 VMs، وهو كمبيوتر فائق السرعة يعتمد على وحدة معالجة الرسومات GPU من Nvidia H100، لتوفير الدعم لنماذج الذكاء الاصطناعي واسعة النطاق. سيكون هذا المنتج متاحًا بشكل عام في سبتمبر.
بالإضافة إلى ذلك، أعلنت Google أيضًا في هذا الحدث أنها ستضيف أدوات الذكاء الاصطناعي (مثل Llama 2 وClaude 2) من شركات مثل Meta وAnthropic إلى منصتها السحابية، مما يؤدي إلى دمج قدرات الذكاء الاصطناعي التوليدية القوية في المنتجات السحابية. حاليًا، بما في ذلك Llama 2 وClaude 2، يتمتع عملاء Google Cloud بإمكانية الوصول إلى أكثر من 100 نموذج وأدوات قوية للذكاء الاصطناعي.
مقارنة بـ TPU v4، في أي جوانب تمت ترقية TPU v5e
ما هو أداء وسهولة استخدام TPU v5e الذي أطلقته Google Cloud هذه المرة؟ دعونا نرى المقبل.
وفقًا للبيانات الرسمية، يوفر Cloud TPU v5e أداءً عاليًا وفعالية من حيث التكلفة للتدريب والاستدلال على نطاق متوسط وكبير. يمكن القول أن هذا الجيل من TPU مصمم خصيصًا لنماذج اللغات الكبيرة ونماذج الذكاء الاصطناعي التوليدية، وبالمقارنة مع الجيل السابق من TPU v4، يمكن زيادة أداء التدريب لكل دولار بما يصل إلى مرتين، ويمكن زيادة أداء الاستدلال لكل دولار. زيادة تصل إلى 2.5 مرة. كما أن تكلفة TPU v5e أقل من نصف تكلفة TPU v4، مما يمنح المزيد من المؤسسات الفرصة لتدريب ونشر نماذج ذكاء اصطناعي أكبر وأكثر تعقيدًا.
ومن الجدير بالذكر أنه بفضل الابتكار التكنولوجي، لا تتطلب فوائد التكلفة هذه أي تضحية بالأداء أو المرونة. تستخدم Google Cloud وحدات TPU v5e لتحقيق التوازن بين الأداء والمرونة والكفاءة، مما يسمح بما يصل إلى 256 شريحة ربط بينية، وإجمالي عرض النطاق الترددي يتجاوز 400 تيرابايت/ثانية، وأداء INT8 يصل إلى 100 بيتا أوبس.
يتمتع TPU v5e أيضًا بتعدد استخدامات قوي، حيث يدعم ثمانية تكوينات مختلفة للأجهزة الافتراضية، ويمكن أن يتراوح عدد الشرائح في الشريحة الواحدة من واحدة إلى 256، مما يسمح للعملاء باختيار التكوين المناسب لدعم نماذج اللغات الكبيرة وأنظمة الذكاء الاصطناعي التوليدية بمقاييس مختلفة.
بالإضافة إلى كونه أكثر قوة وفعالية من حيث التكلفة، فإن جهاز TPU v5e يرتقي أيضًا بسهولة الاستخدام إلى مستوى جديد تمامًا. يمكن الآن للعملاء استخدام Google Kubernetes Engine (GKE) لإدارة تنسيق أعباء عمل الذكاء الاصطناعي على نطاق واسع على TPU v5e وTPU v4، وبالتالي تحسين كفاءة تطوير الذكاء الاصطناعي. بالنسبة للمؤسسات التي تفضل الاستضافة البسيطة، تدعم Vertex AI الآن استخدام أجهزة Cloud TPU الافتراضية لتدريب أطر العمل والمكتبات المختلفة.
بالإضافة إلى ذلك، كما ذكرنا سابقًا، يوفر Cloud TPU v5e دعمًا مدمجًا لأطر عمل الذكاء الاصطناعي الرائدة مثل JAX وPyTorch وTensorFlow، بالإضافة إلى الأدوات الشائعة مفتوحة المصدر (Huggingface's Transformers and Accelerate وPyTorch Lightning وRay). سيدعم الإصدار القادم من PyTorch/XLA 2.1 تقنية TPU v5e وميزات جديدة مثل النمذجة وتوازي البيانات للتدريب على النماذج واسعة النطاق.
أخيرًا، من أجل توسيع نطاق العمل التدريبي بسهولة أكبر، قدمت Google Cloud تقنية Multislice في إصدار المعاينة من TPU v5e، مما يسمح للمستخدمين بتوسيع نموذج الذكاء الاصطناعي بسهولة، ويمكنهم تجاوز نطاق كبسولات TPU المادية، والتي يمكن أن تستوعب ما يصل إلى عشرات الآلاف من رقائق TPU v5e أو TPU v4.
اعتبارًا من الآن، يقتصر التدريب على استخدام TPU على شريحة TPU واحدة، والحد الأقصى لعدد الشرائح لـ TPU v4 هو 3,072. باستخدام Multislice، يمكن للمطورين توسيع نطاق أعباء العمل إلى عشرات الآلاف من الرقائق باستخدام تقنية ICI (Intra-Chip Interconnect) داخل حاوية واحدة أو عبر منصات متعددة على شبكة مركز البيانات (DCN).
تعمل تقنية التقطيع متعددة الطبقات هذه على تمكين Google من بناء نموذج PaLM المتطور الخاص بها. والآن يمكن لعملاء Google Cloud أيضًا تجربة هذه التقنية.
لقد حظي جهاز TPU v5e الذي تمت ترقيته بتقدير كبير من قبل العملاء. قال دومينيك دوناتو، نائب رئيس التكنولوجيا في شركة AssemblyAI، إنه عند استخدام TPU v5e لتشغيل الاستدلال على نماذج ASR (التعرف التلقائي على الكلام)، فإن الأداء لكل دولار هو دائمًا 4 أضعاف أداء الحلول المماثلة في السوق. يمكن لهذا المزيج القوي من الأجهزة والبرامج توفير حلول ذكاء اصطناعي أكثر فعالية من حيث التكلفة لعملائها.
مع استمرار Google Cloud في ترقية بنيتها التحتية للذكاء الاصطناعي، سيختار المزيد والمزيد من العملاء استخدام خدمات Google Cloud. وفقًا للمقدمة السابقة لشركة أبلابت، الشركة الأم لشركة جوجل، فإن أكثر من نصف الشركات الناشئة في مجال الذكاء الاصطناعي تستخدم منصة الحوسبة السحابية من جوجل.
بالنسبة لشركة Google، يعد Cloud TPU v5e مقدمة لمزيد من التغيير في نموذج المنتج وتمكين عملاء السحابة.
رابط المرجع: