Nvidia ve bulut devleri savaşmalı

Yazar: Zhao Jian

Kaynak: Jiazi Guangnian

Görsel kaynağı: Unbounded AI tarafından oluşturuldu

"Yiyecek için koş ya da başkaları tarafından yenmemek için koş. Her iki durumda da koşmaya devam et."

Bu, Nvidia CEO'su Huang Renxun'un bu yıl Ulusal Tayvan Üniversitesi'nde yaptığı konuşmada mezunlara verdiği mesajdır.Tabii ki Huang Renxun'un yarattığı bu trilyon dolarlık piyasa değeri imparatorluğunun zihniyetinin de bir yorumudur.

2023'te Nvidia, Huang Renxun'un birçok kez "AI'nın iPhone anı" olarak adlandırdığı üretken AI ile karşılaştı. Şu anda, Huang Renxun gözünü av yerine avcı - Yun olma fırsatına dikti.

Görünüşe göre Nvidia'nın bulut yapma motivasyonu olmaması gerekiyor, bunun tek nedeni bulut servis sağlayıcılarının Nvidia'nın önemli müşterileri olması ve her yıl Nvidia'dan milyarlarca dolarlık GPU satın alması değil, aynı zamanda bu işin kazanma şansı yok gibi görünmesi.

Bugünün bulut bilgi işlem pazarı, üç bulut devi Amazon AWS, Microsoft Azure ve Google Cloud tarafından sıkı bir şekilde kontrol ediliyor. Statista verilerine göre 2022'de AWS'nin pazar payı %32, Azure'un %23 ve Google Cloud'un pazar payı %10 olacak.Üç şirketin toplam pazar payı %65'e ulaşacak.

Bir meydan okuyucu görmediğimizden değil. Son on yılda, VMware, Dell ve Hewlett-Packard gibi tanınmış şirketlerin tümü bulut bilişim pazarından pay almak istedi, ancak istisnasız hepsi başarısız oldu.

Bununla birlikte, her teknolojik devrimin yeni trend belirleyiciler üretmesi gibi, bu üretken yapay zeka dalgasında çip üreticisi Nvidia, bulut bilişim pazarını adım adım keşfetmeye başladı:

**İlk adımda, bu yıl 21 Mart'ta düzenlenen GTC konferansında NVIDIA, DGX Cloud'u piyasaya sürdü. **Adından da anlaşılacağı gibi bu bir bulut ürünüdür.Müşteriler, Nvidia'nın AI ürün ve hizmetlerini bulutta veya yerel veri merkezlerinde aylık olarak kiralayarak doğrudan edinebilir;

**İkinci adım, üç bulut devinin rakiplerine yatırım yapmaktır. **Nvidia, Amerika Birleşik Devletleri'ndeki iki küçük ve orta ölçekli bulut hizmeti sağlayıcısı olan CoreWeave ve Lambda Labs'a art arda yatırım yaptı ve onlara kıt GPU yongaları tahsis etti. Bu "tercih" ne kadar abartılı? GPU çekirdeği bulmanın zor olduğu şu anda CoreWeave, bol miktardaki GPU'larını, özellikle H100'ü ipotek ederek 2,3 milyar ABD doları borç finansmanı elde edebildi.

Henüz yeni başlamış olmasına rağmen, bulut işinin düzeni, Nvidia'nın bulut devlerine karşı karşı saldırısını temsil ediyor.

Hepimizin bildiği gibi, Google, Amazon ve Microsoft, Google'ın TPU serisi, Amazon'un Inferentia ve Trainium serisi ve Microsoft'un bu yıl piyasaya sürülen Athena çipi gibi kendi geliştirdikleri AI çip projelerini art arda başlattı. Üç bulut devi, Nvidia'nın "GPU vergisini" azaltmak için yapay zeka yongalarını kendi kendine geliştirmek için yeterli kaynağa ve motivasyona sahip.

Nvidia bunun gayet iyi farkında. Huang Renxun, son çeyreğin kazanç raporunun konferans görüşmesinde açıkça "rekabete dikkat ediyoruz ve her zaman rekabetimiz oldu" dedi.

Huang Renxun, üç büyük bulut hizmeti sağlayıcısının genişlemesini engelleyemez, ancak belki de en iyi savunma saldırıdır ve Nvidia'nın karşı saldırı yöntemi doğrudan buluta gitmektir.

A100 ve H100'ün iki kozu uzun süredir elinde olan bu iki çip, büyük ölçekli model eğitimi ve akıl yürütme için en iyi seçimdir ve bunların hiçbiri Nvidia'nın gerçek bir lider olma şansına sahip değildir. bulut bilgi işlem pazarı. perde arkası operatörü.

Çipler ve bulut bilgi işlem etrafında açık ve gizli bir savaş, küresel piyasa değeri ilk beş olan dört teknoloji devi arasında yavaş yavaş gelişiyor.

1. Neredeyse şafaktan önce düşüyordu

Nvidia'ya aşina olanlar, Nvidia'nın bugün ne kadar güzel olduğunu ve Nvidia'nın geçen yıl ne kadar sefil olduğunu bileceklerdir.

Nvidia'nın temel iş alanları arasında veri merkezleri, oyunlar, profesyonel görselleştirme ve otomobiller yer alır. 2020'nin ikinci çeyreğinde Nvidia'nın veri merkezi işi ilk kez oyunları geride bırakarak Nvidia'nın en büyük gelir kaynağı haline geldi.

2022Q4 mali rapor toplantısında (Kasım 2021'den Ocak 2022'ye kadar olan doğal yıla karşılık gelir), Nvidia güçlü bir dördüncü çeyrek mali raporu sundu ve veri merkezi işi yıllık bazda %71 arttı. Huang Renxun o sırada iyimser bir şekilde şunları söyledi: "Nvidia'nın bilgi işlem platformu, olağanüstü pazar talebini başlattı." Ancak, bir hafta sonra, Rusya ile Ukrayna arasında, önemli hammaddelerin tedarik zincirini bozan bir çatışma çıktı. Salgının etkisiyle birleştiğinde, Nvidia'nın veri merkezi işinin büyüme hızı 2022 boyunca yavaşlamaya devam edecek.

Bu yılın Şubat ayında yayınlanan 2023Q4 mali raporunda, NVIDIA veri merkezlerinin büyüme oranı yalnızca %11'di, rekor bir düşüklük ve 2020'den beri ilk kez zincir düşüşe geçti.

2022'de Nvidia'nın hisse fiyatı da yarı yarıya düşecek. Elbette bugün yeniden yükseldi ve ChatGPT'nin doğuşu Nvidia'yı kurtardı.

Not: Nvidia, Mayıs-Temmuz 2023'e tekabül eden 23 Ağustos Çarşamba günü 2024Q2 mali raporunu yayınlayacak.

İş büyümesindeki düşüşün birçok nedeni arasında en ihtiyatlı olanı, büyük müşterilerden gelen talebin azalmasıdır. 2023Q4 mali raporunda, Nvidia CFO'su Colette Kress bir rakam açıkladı: 2023 mali yılında veri merkezi sektörünün 15 milyar ABD doları gelirinin yaklaşık %40'ı (yaklaşık 6 milyar ABD doları) hiper ölçekli veri merkezlerinden ve bulut hizmetinden geliyor sağlayıcılar.

Ama sadece dördüncü çeyreğe bakarsanız, bu sadece bir çeyrektir. Hiper ölçekli veri merkezi oluşturucuları ve bulut hizmeti sağlayıcıları, GPU harcamalarını önemli ölçüde azaltıyor.

Talepteki nesnel düşüşe ek olarak, üç bulut devinin kendi geliştirdiği yapay zeka çip planı, NVIDIA GPU'nun pazar payını yavaş yavaş aşındırıyor.

Google, kendi geliştirdiği birinci nesil yapay zeka çipi TPU'yu 2016'da piyasaya sürdü ve beş yıl sonra, 19 Mayıs 2021'de dördüncü nesil TPU v4'ü piyasaya sürdü. Bu yıl yayınlanan bir araştırma raporunda Google, Nvidia A100 GPU ile çalışan eşdeğer bir makineden 1,7 kat daha hızlı ve daha verimli çalışan bir süper bilgisayar oluşturmak için 4.000 TPU v4'ü bir araya getirdiğini söyledi.

Amazon ayrıca, yalnızca Nvidia için değil, tüm yonga üreticileri için kendi geliştirdiği bir yonga geleneğine sahiptir. Şu anda Amazon, kendi geliştirdiği dört yonga serisini piyasaya sürdü - ağ yongası Nitro serisi, sunucu yongası Graviton serisi, AI muhakeme çipi Inferentia serisi, AI eğitim çipi Trainium. Bunların arasında, son iki AI yongası, NVIDIA GPU'larla rekabet eder.

Geç girişine rağmen, Microsoft "geç geldi". The Information'a göre bu yıl 18 Nisan'da, 2019'dan beri Microsoft gizlice "Athena" (Athena) kod adlı dahili AI yongaları geliştiriyor, Athena projesinde yüzlerce çalışan çalışıyor, Microsoft yaklaşık 2 milyar Dolar yatırım yaptı . Microsoft ve OpenAI'nin bazı çalışanları, GPT-4 gibi en son büyük dil modellerinde performansı test etmek için çipler alabildi.

Bulut hizmeti sağlayıcıları, özellikle üretken AI'nın patlak vermesinden sonra, GPU satın almak için her yıl büyük miktarda "Nvidia vergisi" ödemek zorunda kalıyor.

Bu yılın Şubat ayında, New Street Research bir tahminde bulundu: ChatGPT tabanlı Bing arama motorunun, kullanıcı sorularına bir saniye içinde yanıt verebilmesi için 8 GPU'ya ihtiyacı var. Bu hızda, Microsoft'un Bing'deki modelleri her kullanıcıya dağıtmak için 8 GPU'lu 20.000'den fazla sunucuya ihtiyacı olacak ve bu da Microsoft'a 4 milyar dolara mal olacak. Günde 8-9 milyar sorgu işleyen Google ölçeğinde, 80 milyar dolara mal olur.

Bulut hizmeti sağlayıcıların kendi geliştirdikleri AI yongaları harici olarak satılmayacak ve Nvidia ile doğrudan rekabet etmeyecek. Ancak, veri merkezlerinde GPU'lar yerine kendi geliştirdiğimiz yongaları konuşlandırarak maliyetler etkin bir şekilde azaltılabilir. Örneğin Google, bulut hizmetinde yüzlerce TPU v4 süper bilgisayarı dağıttı.

Üç büyük bulut hizmeti sağlayıcısı, Nvidia imparatorluğunda bir çatlak olarak görülen kendi çiplerini geliştirmek için yeterli kaynağa ve motivasyona sahip. Nvidia bunun gayet iyi farkında, ancak daha iyi bir yol yok gibi görünüyor.

ChatGPT ortaya çıkana kadar adım adım bulut servis sağlayıcıları tarafından baskı altına alınan Nvidia, karşı saldırı için bir atılım noktası gördü. Bulut hizmeti sağlayıcılar çip yapabildiğine göre, Nvidia AI çağında bulut yapamaz mı?

**2. Nvidia'nın bulut yapma şansı var mı? **

Nvidia şu anda üretici yapay zeka devriminden en çok yararlanan taraf ve Huang Renxun bu yıl her zaman "Yapay zekanın iPhone anı"ndan bahsetti. Üretken yapay zekaya yönelik patlayıcı talep, GPU'yu sağlam bir para birimi haline getirdi.Bazı insanlar sadece "GPU yeni dolar" diyor.

GPU'dan buluta, Nvidia'nın gerçekten bir şansı var mı?

Üretken yapay zekanın eğitimi ve muhakemesi esas olarak bulutta gerçekleştirilir ve yapay zeka altyapısı sağlayan bulut hizmeti sağlayıcıları, üretken yapay zeka dalgasından en büyük faydalanıcılardan biri olacaktır. Silikon Vadisi girişim sermayesi şirketi A16Z tarafından tahmin edilen verilere göre, üretken yapay zeka tarafından üretilen toplam gelirin %10 ila %20'si sonunda bulut hizmeti sağlayıcılarına akıyor.

Ancak bu süreç hızlı olmayacaktır. Amazon CEO'su Andy Jassy, 2023 2. Çeyrek kazanç çağrısında şunları söyledi: "Üretken yapay zeka, şüphesiz neredeyse tüm müşterilerin deneyimini değiştirecek. Ancak henüz çok erken ve çoğu şirket hâlâ bu hedefe nasıl ulaşılacağını düşünüyor. çok erken aşama."

Bulut hizmetlerinin özü, veri merkezindeki donanım kaynaklarını sanallaştırmak ve daha sonra bunları piyasaya kiralamaktır. Geleneksel veri merkezlerindeki sunucuların neredeyse %100'ü Intel ve AMD CPU'lara dayalı olarak oluşturulmuştur.CPU, "genel bilgi işlem" yetenekleri sağlayan - işletim sistemlerini, sistem yazılımını ve uygulama programını işleyen "en güçlü beyne sahip genelci" gibidir. karmaşık talimat programlama, döngü, dallanma, mantıksal yargı ve yürütme gibi program görevlerine sahiptir.

Ancak CPU'lar, yapay zekanın ihtiyaç duyduğu ve Nvidia GPU'larının iyi olduğu büyük ölçekli veri işleme ve paralel hesaplamada iyi değil. GPU, görüntü işleme, derin öğrenme ve mevcut büyük model eğitimi, akıl yürütme ve diğer görevlerde uzmanlaşmış bir "şiddetli bilgi işlem uzmanı" gibidir. Huang Renxun, bu büyük ölçüde paralel bilgi işlem yeteneğini "hızlandırılmış bilgi işlem" olarak adlandırdı.

2012 yılında, derin öğrenmenin babası Jeff Hinton ve çırakları, evrişimli sinir ağı modeli AlexNet'i ilk kez NVIDIA GPU üzerinde eğitmeye çalıştı ve görüntü tanıma yarışmasını bir çırpıda kazandı. Bu olay, önümüzdeki on yıl içinde derin öğrenme patlamasını doğurdu.Nvidia'nın kendisi de dahil olmak üzere tüm yapay zeka endüstrisi, GPU'nun hızlandırılmış bilgi işlem potansiyelini fark etti.

Nvidia'nın kaderinin çarkları dönmeye başladı. O zamandan beri Huang Renxun, birçok kez "Moore Yasası öldü" diye bağırdı. Her beş yılda bir aynı maliyetle performansın on kat artması gibi, CPU genişletme çağının da sona erdiğine inanıyor. GPU ile değiştirilecek ve Huang Renxun özel olarak bir "Huang Yasası" icat etti - GPU, yapay zeka performansını yıldan yıla ikiye katlayacak.

2012'den 2022'ye kadar olan on yıl boyunca, buna 0'dan 1'e hızlandırılmış bilgi işlem diyebiliriz ve yapay zeka, belirli endüstrilere ve görüntü tanıma gibi belirli senaryolara indi. Ancak bu dönemde yapay zekaya olan talep hala yeterince büyük değil.Aletheia araştırma firması, yapay zeka sunucularının mevcut pazar penetrasyon oranının %5'in altında olduğunu tahmin ediyor. Bu, Huang Renxun'un hızlandırılmış bilgi işlem hayalini gerçekleştirmek için yeterli olmaktan çok uzak.

Kasım 2022'de ChatGPT'nin doğuşuna kadar "AI iPhone anı" ortaya çıktı. Bu, hızlandırılmış bilgi işlemin 1'den 10'a ölçeklendirilmesinin başlangıcı olarak görülebilir.

Üretken yapay zeka geliri (Bloomberg üzerinden resim)

Huang Renxun, hızlandırılmış bilgi işlem ve üretken yapay zeka kombinasyonunun son 60 yılda bilgi işlem yöntemlerini değiştireceğine inanıyor. Şirketler üretken yapay zekayı her ürüne, hizmete ve iş sürecine uygulamak için yarışırken, trilyon dolarlık küresel veri merkezi altyapısı genel amaçlı bilgi işlemden hızlandırılmış bilgi işleme geçiş yapacak ve bunun sonucunda veri merkezinin yeniden keşfi kesinlikle büyük bir pazar fırsatı yaratacaktır.

Son çeyreğin kazanç konferans görüşmesinde Huang Renxun, "On yıllık bir veri merkezi istihbaratının ilk yılındayız" sözü verdi.

Huang Renxun, hızlandırılmış bilgi işlemin tam yığın bir zorluk olduğunu söyledi. Mühendislik için tüm yazılımları, tüm çerçeve kitaplıklarını ve tüm algoritmaları entegre etmelidir. Bu görevler yalnızca bir çip için değil, tüm veri merkezi içindir. Bir veri merkezi bir süper bilgisayardır. En iyi performansı elde etmek için, ağ işletim sistemlerinin, dağıtılmış bilgi işlem motorlarının, ağ cihazlarının, anahtarların ve bilgi işlem mimarilerinin tüm yığınını optimize etmek gerekir.

Örneğin, genel bilgi işlem veri merkezi, büyük ölçekli veri iletimi olmadan tüm sunucuları bağlamak için esas olarak Ethernet'i kullanır; Nvidia tarafından önerilen hızlandırılmış bilgi işlem veri merkezi, bağlantı için son derece yüksek veri çıkışına sahip olan Sonsuz Bant adlı bir teknoloji kullanır.

Sistematik optimizasyon, hızlandırılmış bilgi işlem veri merkezlerinin geleneksel veri merkezlerinden daha yüksek verimliliğe ve daha düşük maliyetlere sahip olmasını da sağlar.

Huang Renxun, bu yılın Ağustos ayında düzenlenen yıllık bilgisayar grafikleri konferansı SIGGRAPH'ta bir soru yöneltti: "100 milyon dolara ne alabilirim?" Huang Renxun kendi kendine sordu ve şu yanıtı verdi: "Geçmişte, 100 milyon dolar şunlardan oluşan bir veri merkezi satın alabilirdi: 8.800 x86 CPU., güç tüketimi 5MW; bugün 100 milyon ABD doları, 2500 GH200'den oluşan bir Iso-Bütçe veri merkezi satın alabilir, güç tüketimi 3MW, AI muhakeme performansı CPU verilerinin 12 katıdır yukarıda belirtilen merkez ve enerji verimliliği 20 kat."

Aynı AI muhakeme performansı altında, bir GPU veri merkezinin maliyeti, bir CPU veri merkezinin maliyetinin yalnızca 1/12'sidir. "Ne kadar çok satın alırsanız, o kadar çok tasarruf edersiniz." Bu, Huang Renxun'un Hızlandırılmış Bilgi İşlem Veri Merkezi manifestosudur.

Nvidia şimdiye kadar beş veri merkezi kurdu ve dünyanın dört bir yanındaki müşterilerin kendi veri merkezlerini oluşturmasına yardımcı oldu. Ayrıca, geleneksel bir veri merkezinin teslimattan işletmeye geçmesi aylar hatta bir yıl alabilir, ancak Nvidia'da. Bu süre haftalardır. Huang, "Ekibin bu alandaki uzmanlığı olağanüstü," dedi.

Üç bulut devi için genel amaçlı bilgi işlem veri merkezlerinden hızlandırılmış bilgi işlem veri merkezlerine geçiş hızlı olmayacak. Bu sadece teknoloji ve yeteneklerle ilgili değil, bu tür dev şirketlerin karar alma ve süreçleriyle de ilgili.

Bu, Nvidia'ya bulut yapma fırsatı verir. Veri merkezinden buluta doğru bir adım atmak tabii ki mümkün ve Nvidia şimdiden bunu yapmaya çalışıyor.

3. Karanlık Chencang

Veri merkezi işinin en düşük büyüme oranına sahip 2023 4. çeyrek mali raporunda Nvidia, yeni bir ürünü olan DGX Cloud'u da duyurdu. Bir ay sonra GTC konferansında, DGX Cloud resmi olarak piyasaya sürüldü.

Adından da anlaşılacağı gibi bu bir bulut hizmeti ürünüdür. Nvidia bulut bilişim pazarına girecek mi?

Önce DGX'in ne olduğuna bakalım. DGX, Huang Renxun'un "kasadaki veri merkezi" olarak adlandırdığı, Nvidia tarafından 2017'de piyasaya sürülen ilk süper bilgisayardır.

Birinci nesil DGX, 8 GPU'yu (Tesla P100) ve 4 katı hal sürücüsünü entegre etti ve NVIDIA NVlink bağlantı teknolojisini kullandı. Derin öğrenme eğitimi açısından, tek bir DGX'in performansı 250 normal x86 sunucusuna eşdeğerdir. Tabii ki, tek bir birim için 129.000 $ ile de pahalı.

Görüşmenin ardından Huang Renxun, Elon Musk'a ilk DGX-1'i takdim etti. Musk, OpenAI'nin kurucu ortağıdır.OpenAI bu süper bilgisayardan yola çıktı ve bugünkü ChatGPT'yi adım adım oluşturdu.

Bugün, DGX süper bilgisayarı beşinci nesle kadar geliştirilmiştir.İlk dört nesil DGX P100, DGX A100, DGX H100 ve en son DGX GH200'dür.

Nvidia tarafından piyasaya sürülen DGX Cloud, daha önce piyasaya sürülen süper bilgisayarın bulut versiyonudur.Bir DGX Cloud örneği (bir bulut sunucusundaki sanal bilgisayar), 8 A100 veya H100 ile yapılandırılır.

Bununla birlikte, DGX Cloud'un fiyatı ucuz değil, aylık 36.999 $, yaklaşık 264.000 RMB. Karşılaştırma yapmak gerekirse, 8 A100'lü Microsoft Azure ND96asr örneği ve eşdeğer özellikleri aylık 19.854 ABD dolarına mal oluyor, bu da DGX Cloud'un yalnızca yarısı.

Nvidia neden bu kadar yüksek bir fiyat belirlemeye cesaret ediyor? Yanıt, DGX Cloud'un yazılım ve donanımı entegre eden anahtar teslimi bir çözüm olduğudur. **Nvidia artık kendisini bir GPU çip şirketi olarak tanıtmıyor, ancak kendisini bir bilgi işlem platformu şirketi olarak konumlandırıyor. **

DGX Cloud, donanım kaynaklarına ek olarak iki destekleyici yazılım platformunu da piyasaya sürdü: Biri şirketlerin dil, vizyon ve biyomedikal modeller dahil olmak üzere özel modeller oluşturmasına yardımcı olan NVIDIA AI Foundations, diğeri ise 4.000 farklı model içeren NVIDIA AI Enterprise. Kuruluşların kutudan çıkar çıkmaz kullanmasına yardımcı olan bir yapay zeka çerçevesi. Nvidia'nın AI ürünleri, Alibaba Cloud gibi yerel bulut hizmeti sağlayıcıları tarafından başlatılan MaaS'ye benzer.

Huang, bu yeni yazılım gelir akışları konusunda iyimser ve üretici yapay zeka alanındaki gelirin, şirketin toplam gelirinin "tek haneli" bir kısmından gelecek yıl içinde "önemli" bir kısmına büyümesini bekliyor. Huang Renxun, "Yeni iş modelinin genişletilmesi konusunda heyecanlıyız." dedi.

DGX Cloud'un lansmanı, nesnel olarak bulut hizmeti sağlayıcılarıyla belirli bir rekabetçi ilişki oluşturdu, ancak Nvidia yine de bulut hizmeti sağlayıcılarıyla yakın işbirliğini sürdürmek istiyor. Nvidia şu anda sıfırdan eksiksiz bir bulut altyapısı oluşturmamakta, ancak çeşitli bulut hizmeti sağlayıcılarının bulut platformlarında DGX Cloud'u barındırmaktadır.

Nvidia, temel donanım olanaklarını bulut satıcılarına satar, ardından onlardan bulut bilgi işlem kaynakları satın alır ve son olarak bulut hizmetlerini kurumsal müşterilere satar ve tüm geliri elinde tutar. Müşteriler, Nvidia'nın AI ürünlerini ve AI model hizmetlerini kullanmak için Nvidia'nın AI süper bilgisayarına yalnızca bir tarayıcı aracılığıyla erişebilir.

Ancak, bulut hizmeti sağlayıcıları satın alacak mı?

Huang Renxun bu konuda şunları söyledi: "NVIDIA bulut hizmetleri ile bulut hizmeti sağlayıcıları arasındaki iş birliği bir kazan-kazan durumu olacak. İki taraf ortaklaşa yeni uygulamalar oluşturacak ve yeni pazarlar geliştirecek." Huang Renxun, ideal olarak müşterilerin satın alacaklarını söyledi. NVIDIA DGX Bulutun bulut hizmeti sağlayıcının bulutuna oranı 1:9'dur.

Oracle, Nvidia ile ortaklık ilan eden ilk bulut hizmeti sağlayıcısıdır. Son yıllarda acilen bulut dönüşümünü gerçekleştiren yazılım devi, bulut bilişim pazarında dönüş yapmak için Nvidia ile ittifak kurmak için yeterli motivasyona sahip. Nvidia ayrıca Microsoft Azure, Google Cloud ve yakında piyasaya sürülmesi beklenen diğer bulut platformlarıyla da çalışıyor.

** Nvidia'nın hüsnükuruntuları yüksek, ancak tüm bulut hizmeti sağlayıcıları Nvidia'nın talebini kabul etmeyecek. **AWS, DGX Cloud ürünlerinde Nvidia ile işbirliği yapmayı reddetti.

Reuters'e göre Amazon Elastic Cloud Computing başkan yardımcısı Dave Brown, "NVIDIA bizimle iletişime geçti ve iş modelini inceledik. Ancak AWS için bu pek mantıklı değil" dedi. güvenilir sunucular Mevcut tedarik zinciri uzmanlığı ile uzun vadeli deneyim.

AWS, Nvidia'nın H100 yongasını bu yılın Mart ayında satın almaya başladı, ancak bunu yalnızca kendi geliştirdiği sistemin bir parçası olarak yaptı. AWS ayrıca AMD'nin en yeni yapay zeka çipi MI300'ü kullanmayı düşünüyor ancak henüz nihai bir karar vermedi.

Gelişmekte olan üretken yapay zeka pazarı karşısında, Nvidia ve bulut hizmeti sağlayıcıları arasındaki faydaların dağılımı değişmeye devam edecek. Ancak Nvidia'nın bulut servis sağlayıcısının peynirini hareket ettirdiği oldukça açık.

4. Alttan boşaltın

DGX Cloud'un lansmanı yalnızca ilk adım ve Nvidia'nın bulut bilgi işlem pazarına katılımı hâlâ derinleşiyor. Nvidia bu adımda bizzat bitirmeyi tercih etmemiş, üç bulut devinin rakiplerine destek olmayı seçmişti.

Bu yıl, CoreWeave adlı küçük ve orta ölçekli bir bulut satıcısı ortaya çıktı ve üç bulut devinden daha popüler bir bulut hizmeti sağlayıcısı haline geldi. **CoreWeave, "Nvidia H100'ü büyük ölçekte sağlayabilen" dünyadaki tek bulut hizmeti sağlayıcısı olduğunu iddia ediyor. **

GPU Utils web sitesinden yapılan tahminlere göre CoreWeave'in Nvidia'dan sipariş ettiği H100 sayısı 35.000-40.000 civarında. Buna karşılık, Google tarafından bu yıl Mayıs ayında piyasaya sürülen süper bilgisayar A3 yaklaşık 26.000 H100'e sahip, Amazon AWS tarafından Temmuz ayında başlatılan EC2 P5 sanal makine örneği 20.000 H100'e dayanıyor ve Microsoft tarafından Ağustos ayında piyasaya sürülen Azure ND H100v5 sanal makinesi, sadece 8 adet H100. Bununla birlikte, Microsoft yaklaşık 285.000 A100'e sahiptir.

CoreWeave'in kökeni nedir? 2017 yılında kurulan şirket, başlangıçta ağırlıklı olarak Ethereum kripto para madenciliği işiyle uğraştı ve 2018'de Kuzey Amerika'daki en büyük Ethereum madencisi oldu. O sırada CoreWeave, Ethereum ağının bilgi işlem gücünün %1'inden fazlasını sağlayan 50.000'den fazla GPU konuşlandırdı.

CoreWeave, madenciliğe ek olarak yapay zeka, eğlence medyası ve hesaplamalı kimya gibi bazı kurumsal müşterilere de hizmet vermeye başladı. 2019'da CoreWeave, tüketici sınıfı GPU'lardan tamamen Nvidia'nın kurumsal sınıf GPU'larına geçti, çünkü kurumsal sınıf GPU'lar günün her saati çalışabilir ve GPU kullanımını neredeyse %100'e çıkarır.

2021'de CoreWeave, Nvidia tabanlı GPU bulut platformunu resmi olarak başlattı. 2022'nin üçüncü çeyreğinde Ethereum'un birleşmesi ve büyük ölçekli grafik kartı madenciliği çağının sona ermesiyle CoreWeave tamamen bir bulut hizmet sağlayıcısına dönüştü ve bu yılın Kasım ayında ilk parti olduğunu duyurdu. NVIDIA HGX H100 süper çip kullanan sağlayıcıların sayısı. Bulut hizmeti sağlayıcılarından biri.

Üç dev Amazon, Microsoft ve Google ile karşılaştırıldığında CoreWeave, Nvidia tarafından büyük beğeni toplayan kendi AI çipini geliştirmeyi planlamıyor.

Nisan 2023'te Nvidia, CoreWeave ile iş birliğini derinleştirdi ve ticari iş birliğine ek olarak CoreWeave'in 221 milyon dolarlık B1 tur finansmanına da yatırım yaptı. En önemlisi, Nvidia, CoreWeave'e az bulunan A100 ve H100 için benzersiz bir kanal sağladı.

CoreWeave'in kurucu ortağı ve baş strateji sorumlusu Brannin McBee, yakın zamanda Bloomberg ile yaptığı bir röportajda, Nvidia'nın bu yıl çip sattığını ve CoreWeave'in siparişlerinin de gelecek yılın 2. çeyreği için planlandığını söyledi.

CoreWeave muhtemelen dünyadaki en büyük Nvidia GPU stoğuna sahiptir. Mevcut GPU kıtlığı bağlamında, çipler öz kaynaktan bile daha değerlidir ve CoreWeave yenilikçi bir finansman yöntemi yaratmıştır. Bu yılın Ağustos ayında CoreWeave, GPU çiplerini ipotek ederek 2,3 milyar dolarlık borç finansmanı sağladı. Daha önce, CoreWeave'in B1 tur özsermaye finansmanı yalnızca 421 milyon $ aldı.

Nvidia ile "bulut + GPU" stratejik ittifakı ile CoreWeave'in performansı da fırladı.

Bu yıldan önce CoreWeave az tanınan bir şirketti. Ancak şimdi CoreWeave, GPU'ları aracılığıyla ondan milyarlarca dolar kazanmaya hazırlanıyor. CoreWeave'in kurucu ortağı ve baş strateji sorumlusu Brannin McBee, VentureBeat ile yaptığı bir röportajda CoreWeave'in 2022'deki gelirinin 30 milyon ABD doları olacağını, bu yıl 500 milyon ABD dolarına ulaşacağını ve gelecek yıl yaklaşık 2 milyar ABD doları tutarında sözleşme imzaladığını açıkladı.

CoreWeave ayrıca Teksas'ta 1,6 milyar dolarlık yeni bir veri merkezini duyurdu ve yıl sonuna kadar 14 veri merkezine genişlemeyi planlıyor. Şu anda AI yıldızı unicorn Inflection, yaklaşık 22.000 H100'den oluşan bir GPU kümesi oluşturmak için CoreWeave'in bulutunu kullanıyor. Şirket, bu yılın Temmuz ayında 1,3 milyar dolarlık yeni bir finansman turunu duyurdu. Inflection'ın yatırımcıları arasında NVIDIA'nın da yer aldığını belirtmekte fayda var.

CoreWeave, Nvidia'nın bu yıl yatırım yaptığı ilk bulut bilgi işlem şirketi, ancak tek şirket değil.

The Information'a göre Nvidia, başka bir bulut hizmeti sağlayıcısı olan Lambda Labs ile yatırım anlaşmasına varmak üzere.Nvidia, 300 milyon ABD doları yatırım yapabilir ve Lambda Labs'ın değeri 1 milyar ABD dolarını aşacak. Lambda Labs, NVIDIA A100 ve H100 bilgi işlem güç kaynaklarını dünyadaki en düşük fiyatla sağlayabildiğini iddia ediyor.

Şu anda, GPU kaynaklarının "makul" tahsisi ile Nvidia, gerçek anlamda bulut bilişim pazarında bir tüccar haline geldi ve bulut devinin kolunu kökten kavradı - Microsoft iyi bir durumdur.

Microsoft, en son kazanç raporuna yeni bir risk faktörü ekledi: "Veri merkezleri için yeterince yapay zeka çipi sağlayamazsa hizmetler kesintiye uğrayabilir."

Devasa yapay zeka bilgi işlem ihtiyaçları karşısında, Microsoft'un GPU yükü yetersiz kalıyor ve hatta rakiplerinden, küçük ve orta ölçekli bulut satıcılarından yardım almak zorunda. CNBC'ye göre Microsoft, "CoreWeave girişiminin bulut bilişim altyapısını satın almak için önümüzdeki birkaç yıl içinde milyarlarca dolar harcamayı kabul etti." Nvidia'nın kontrolündeki Microsoft, CoreWeave gibi küçük ve orta ölçekli bulut hizmeti sağlayıcılarının GPU'dan bir fiyat farkı kazanmasına izin vermek zorunda kaldı.

Nvidia, küçük ve orta ölçekli bulut hizmeti sağlayıcılarına yatırım yaparak bulut bilişim alanına adım attı. Bulut altyapısı kurma ve bulut devleriyle doğrudan rekabet etme girişimi olmasa da, gelecekte Nvidia'nın küçük ve orta ölçekli bulut hizmet sağlayıcılarını satın alarak doğrudan pazara girmesi bizi şaşırtmaz.

Nvidia'nın sonunda oyuna girip girmeyeceğinden bağımsız olarak, üretken yapay zeka dalgasında bulut bilişim pazarında perde arkasındaki en büyük oyuncu haline geldi.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)