Nvidia dan raksasa cloud harus bertempur

Pengarang: Zhao Jian

Sumber: Jiazi Guangnian

Sumber gambar: Dihasilkan oleh AI Tak Terbatas

"Lari untuk makan, atau lari agar tidak dimakan orang lain. Bagaimanapun, teruslah berlari."

Inilah pesan CEO Nvidia Huang Renxun kepada para wisudawan dalam pidatonya di Universitas Nasional Taiwan tahun ini, tentunya juga merupakan interpretasi dari mentalitas kerajaan kapitalisasi pasar triliunan dolar yang diciptakan oleh Huang Renxun ini.

Pada tahun 2023, Nvidia dalam pelarian menghadapi AI generatif, yang disebut Huang Renxun berkali-kali sebagai "momen iPhone AI". Pada saat ini, Huang Renxun mengarahkan pandangannya pada kesempatan untuk menjadi pemburu daripada mangsa - Yun.

Tampaknya Nvidia seharusnya tidak memiliki motivasi untuk melakukan cloud, bukan hanya karena penyedia layanan cloud adalah pelanggan penting Nvidia, dan membeli GPU miliaran dolar dari Nvidia setiap tahun, tetapi juga karena masalah ini tampaknya tidak memiliki peluang untuk menang.

Pasar cloud computing saat ini dikontrol dengan kuat oleh tiga raksasa cloud Amazon AWS, Microsoft Azure, dan Google Cloud. Menurut data Statista, pada tahun 2022 pangsa pasar AWS akan menjadi 32%, Azure akan menjadi 23%, dan Google Cloud akan menjadi 10%. Pangsa pasar gabungan dari ketiga perusahaan tersebut akan mencapai 65%.

Bukannya kita belum melihat penantang. Dalam sepuluh tahun terakhir, perusahaan terkenal seperti VMware, Dell, dan Hewlett-Packard semuanya ingin mendapatkan bagian dari pasar komputasi awan, tetapi semuanya gagal tanpa kecuali.

Namun, sama seperti setiap revolusi teknologi menghasilkan trendsetter baru, gelombang AI generatif ini, produsen chip Nvidia mulai menguji pasar komputasi awan langkah demi langkah:

**Pada langkah pertama, pada konferensi GTC pada 21 Maret tahun ini, NVIDIA merilis DGX Cloud. **Seperti namanya, ini adalah produk cloud, pelanggan dapat langsung mendapatkan produk dan layanan AI Nvidia di cloud atau pusat data lokal dengan menyewanya secara bulanan;

**Langkah kedua adalah berinvestasi pada pesaing dari tiga raksasa cloud. **Nvidia telah berinvestasi secara berturut-turut di CoreWeave dan Lambda Labs, dua penyedia layanan cloud kecil dan menengah di Amerika Serikat, dan mengalokasikan chip GPU yang langka untuk mereka. Seberapa berlebihan "preferensi" ini? Pada saat inti GPU sulit ditemukan, CoreWeave dapat memperoleh pembiayaan utang sebesar US$2,3 miliar dengan menggadaikan GPU-nya yang melimpah, terutama H100.

Meski baru dimulai, tata letak bisnis cloud mewakili serangan balik Nvidia terhadap raksasa cloud.

Seperti yang kita semua tahu, Google, Amazon, dan Microsoft telah berturut-turut meluncurkan proyek chip AI yang dikembangkan sendiri secara internal — seri TPU Google, seri Inferentia dan Trainium Amazon, dan chip Athena Microsoft yang diekspos tahun ini. Ketiga raksasa cloud tersebut memiliki sumber daya dan motivasi yang cukup untuk mengembangkan sendiri chip AI guna mengurangi "pajak GPU" Nvidia.

Nvidia sangat menyadari hal ini. Huang Renxun berkata terus terang dalam panggilan konferensi dari laporan pendapatan kuartal terakhir bahwa "kami telah memperhatikan persaingan, dan kami selalu memiliki persaingan."

Huang Renxun tidak dapat mencegah perluasan tiga penyedia layanan cloud utama, tetapi mungkin pertahanan terbaik adalah pelanggaran, dan metode serangan balik Nvidia adalah langsung menuju cloud.

Dengan dua kartu truf A100 dan H100 di tangan - untuk jangka waktu yang lama, kedua chip ini adalah pilihan terbaik untuk pelatihan dan penalaran model skala besar, dan tidak satupun dari mereka, Nvidia memiliki kesempatan untuk menjadi pemimpin sejati dalam pasar komputasi awan operator di belakang layar.

Pertarungan terbuka dan rahasia seputar chip dan komputasi awan perlahan berlangsung di antara empat raksasa teknologi dengan lima besar kapitalisasi pasar global.

1. Hampir jatuh sebelum subuh

Mereka yang akrab dengan Nvidia pasti tahu betapa cantiknya Nvidia saat ini, dan betapa sengsaranya Nvidia tahun lalu.

Bisnis inti Nvidia meliputi pusat data, game, visualisasi profesional, dan otomotif. Pada kuartal kedua tahun 2020, bisnis pusat data Nvidia melampaui game untuk pertama kalinya, menjadi sumber pendapatan terbesar Nvidia.

Dalam pertemuan laporan keuangan 2022Q4 (sesuai dengan tahun alamiah November 2021~Januari 2022), Nvidia menyampaikan laporan keuangan kuartal keempat yang kuat, dan bisnis pusat datanya meningkat sebesar 71% tahun-ke-tahun. Huang Renxun berkata dengan optimis pada saat itu: "Platform komputasi Nvidia mengantarkan permintaan pasar yang luar biasa." Namun, seminggu kemudian, konflik antara Rusia dan Ukraina pecah, mengganggu rantai pasokan bahan mentah utama. Ditambah dengan dampak wabah tersebut, laju pertumbuhan bisnis data center Nvidia akan terus melambat sepanjang tahun 2022.

Dalam laporan keuangan 2023Q4 yang dirilis pada Februari tahun ini, tingkat pertumbuhan pusat data NVIDIA hanya 11%, rekor terendah, dan pertama kali sejak 2020 rantai itu menurun.

Pada 2022, harga saham Nvidia juga akan dipotong setengahnya. Tentu saja, itu telah bangkit kembali hari ini, dan kelahiran ChatGPT menyelamatkan Nvidia.

Catatan: Nvidia akan merilis laporan keuangan 2024Q2 pada Rabu (23 Agustus), sesuai dengan Mei-Juli 2023.

Di antara banyak alasan penurunan pertumbuhan bisnis, penurunan permintaan dari pelanggan utama adalah yang paling diwaspadai. Pada laporan keuangan 2023Q4, CFO Nvidia Colette Kress mengumumkan angka: Sekitar 40% dari 15 miliar dolar AS pendapatan sektor pusat data pada tahun fiskal 2023 (sekitar 6 miliar dolar AS) berasal dari pusat data hyperscale dan layanan cloud penyedia.

Tetapi jika Anda hanya melihat kuartal keempat, itu hanya seperempat. Pembangun pusat data skala besar dan penyedia layanan cloud secara drastis mengurangi pengeluaran GPU.

Selain penurunan permintaan yang obyektif, rencana chip AI yang dikembangkan sendiri dari tiga raksasa cloud mengikis pangsa pasar GPU NVIDIA sedikit demi sedikit.

Google meluncurkan TPU chip AI generasi pertama yang dikembangkan sendiri pada tahun 2016, dan lima tahun kemudian, pada 19 Mei 2021, meluncurkan TPU v4 generasi keempat. Dalam laporan penelitian yang diterbitkan tahun ini, Google mengatakan telah menyatukan 4.000 TPU v4 untuk membangun superkomputer yang bekerja 1,7 kali lebih cepat dan lebih efisien daripada mesin setara yang ditenagai oleh GPU Nvidia A100, 1,9 kali lebih tinggi.

Amazon juga memiliki tradisi chip yang dikembangkan sendiri, tidak hanya untuk Nvidia, tetapi untuk semua produsen chip. Saat ini, Amazon telah meluncurkan empat seri chip yang dikembangkan sendiri - chip jaringan seri Nitro, chip server seri Graviton, chip penalaran AI seri Inferentia, chip pelatihan AI Trainium. Di antara mereka, dua chip AI terakhir bersaing dengan GPU NVIDIA.

Meskipun masuk terlambat, Microsoft "datang terlambat". Pada 18 April tahun ini, menurut The Information, sejak 2019, Microsoft diam-diam mengembangkan chip AI, dengan nama kode internal "Athena" (Athena), ratusan karyawan sedang mengerjakan proyek Athena, Microsoft telah menginvestasikan sekitar 2 miliar Dolar . Beberapa karyawan Microsoft dan OpenAI telah mendapatkan chip untuk menguji performa pada model bahasa besar terbaru seperti GPT-4.

Penyedia layanan cloud harus membayar "pajak Nvidia" dalam jumlah besar setiap tahun untuk membeli GPU, terutama setelah merebaknya AI generatif.

Pada bulan Februari tahun ini, New Street Research membuat perkiraan: mesin pencari Bing berdasarkan ChatGPT membutuhkan 8 GPU untuk menjawab pertanyaan pengguna dalam satu detik. Pada tingkat ini, Microsoft akan membutuhkan lebih dari 20.000 server dengan 8 GPU untuk menyebarkan model di Bing ke setiap pengguna, yang akan menelan biaya Microsoft $4 miliar. Pada skala Google, yang menangani 8-9 miliar kueri per hari, biayanya $80 miliar.

Chip AI yang dikembangkan sendiri oleh penyedia layanan cloud tidak akan dijual secara eksternal, dan tidak akan bersaing langsung dengan Nvidia. Namun, dengan menggunakan chip yang dikembangkan sendiri alih-alih GPU di pusat data, biaya dapat dikurangi secara efektif. Misalnya, Google telah menerapkan ratusan superkomputer TPU v4 di layanan cloud-nya.

Tiga penyedia layanan cloud utama memiliki sumber daya dan motivasi yang cukup untuk mengembangkan chip mereka sendiri, yang dipandang sebagai celah di kerajaan Nvidia. Nvidia sangat menyadari hal ini, tetapi sepertinya tidak ada cara yang lebih baik.

Hingga munculnya ChatGPT, Nvidia yang didesak oleh penyedia layanan cloud selangkah demi selangkah melihat titik terobosan untuk melakukan serangan balik. Karena penyedia layanan cloud dapat membuat chip, apakah Nvidia tidak dapat membuat cloud di era AI?

**2. Apakah Nvidia memiliki kesempatan untuk melakukan cloud? **

Nvidia saat ini adalah penerima manfaat terbesar dari revolusi AI generatif, dan Huang Renxun selalu berbicara tentang "momen AI iPhone" tahun ini. Ledakan permintaan untuk AI generatif telah membuat GPU menjadi mata uang yang kuat Beberapa orang hanya mengatakan bahwa "GPU adalah dolar baru".

Dari GPU ke cloud, apakah Nvidia benar-benar memiliki peluang?

Pelatihan dan penalaran AI generatif terutama dilakukan di cloud, dan penyedia layanan cloud yang menyediakan infrastruktur AI akan menjadi salah satu penerima manfaat terbesar dari gelombang AI generatif. Menurut data yang diperkirakan oleh perusahaan modal ventura Silicon Valley A16Z, 10% hingga 20% dari total pendapatan yang dihasilkan oleh AI generatif akhirnya mengalir ke penyedia layanan cloud.

Namun, proses ini tidak akan cepat. CEO Amazon Andy Jassy mengatakan pada panggilan pendapatan Q2 2023: "AI generatif tidak diragukan lagi akan mengubah pengalaman hampir semua pelanggan. Tapi itu masih terlalu dini, dan sebagian besar perusahaan masih mempertimbangkan bagaimana mencapai tujuan ini. Kami Ini adalah maraton di a tahap yang sangat awal."

Inti dari layanan cloud adalah memvirtualisasikan sumber daya perangkat keras di pusat data dan kemudian menyewakannya ke pasar. Hampir 100% server di pusat data tradisional dibangun berdasarkan CPU Intel dan AMD. CPU seperti "generalis dengan otak terkuat", yang menyediakan kemampuan "komputasi umum" - memproses sistem operasi, perangkat lunak sistem, dan Program aplikasi memiliki tugas-tugas program seperti penjadwalan instruksi yang kompleks, perulangan, percabangan, penilaian logis dan eksekusi.

Tetapi CPU tidak bagus dalam pemrosesan data skala besar dan komputasi paralel, yang dibutuhkan oleh kecerdasan buatan dan GPU Nvidia. GPU seperti "ahli komputasi yang hebat", yang berspesialisasi dalam pemrosesan gambar, pembelajaran mendalam, dan pelatihan model besar saat ini, penalaran, dan tugas lainnya. Huang Renxun menyebut kemampuan komputasi paralel masif ini "komputasi yang dipercepat".

Pada tahun 2012, Jeff Hinton, bapak pembelajaran mendalam, dan muridnya mencoba melatih model jaringan saraf convolutional AlexNet pada GPU NVIDIA untuk pertama kalinya, dan memenangkan kompetisi pengenalan gambar dalam satu gerakan. Kejadian ini melahirkan ledakan pembelajaran mendalam dalam sepuluh tahun ke depan.Seluruh industri kecerdasan buatan, termasuk Nvidia sendiri, menyadari potensi GPU untuk komputasi yang dipercepat.

Roda keberuntungan Nvidia mulai berputar. Sejak itu, Huang Renxun meneriakkan "Hukum Moore sudah mati" dalam banyak kesempatan. Dia percaya bahwa era ekspansi CPU telah berakhir, demikian pula peningkatan kinerja sepuluh kali lipat dengan biaya yang sama setiap lima tahun. Itu akan digantikan oleh GPU, dan Huang Renxun secara khusus menemukan "Hukum Huang" - GPU akan meningkatkan kinerja AI menjadi dua kali lipat dari tahun ke tahun.

Selama sepuluh tahun dari 2012 hingga 2022, kita dapat menyebutnya komputasi yang dipercepat dari 0 ke 1, dan kecerdasan buatan telah mendarat di industri tertentu dan skenario tertentu seperti pengenalan gambar. Namun, permintaan AI pada periode ini masih belum cukup besar, firma riset Aletheia memperkirakan tingkat penetrasi pasar server AI saat ini kurang dari 5%. Ini jauh dari cukup untuk mewujudkan impian Huang Renxun tentang percepatan komputasi.

Hingga lahirnya ChatGPT pada November 2022, muncul "momen AI iPhone". Ini dapat dilihat sebagai awal peningkatan komputasi yang dipercepat dari 1 menjadi 10.

Pendapatan AI generatif (gambar melalui Bloomberg)

Huang Renxun percaya bahwa kombinasi komputasi yang dipercepat dan AI generatif akan mengubah metode komputasi dalam 60 tahun terakhir. Saat perusahaan berlomba menerapkan AI generatif ke setiap produk, layanan, dan proses bisnis, infrastruktur pusat data global bernilai triliunan dolar akan bertransisi dari komputasi tujuan umum ke komputasi yang dipercepat, dan penemuan kembali pusat data yang dihasilkan pasti akan menciptakan peluang pasar yang sangat besar.

Dalam panggilan konferensi pendapatan kuartal terakhir, Huang Renxun bersumpah: "Kami berada di tahun pertama dari intelijen pusat data selama satu dekade."

Huang Renxun mengatakan bahwa komputasi yang dipercepat adalah tantangan tumpukan penuh. Ini harus mengintegrasikan semua perangkat lunak, semua pustaka kerangka kerja, dan semua algoritme untuk rekayasa. Tugas ini tidak hanya untuk sebuah chip, tetapi untuk seluruh pusat data. Pusat data adalah superkomputer. Untuk mencapai kinerja terbaik, perlu mengoptimalkan tumpukan penuh sistem operasi jaringan, mesin komputasi terdistribusi, perangkat jaringan, sakelar, dan arsitektur komputasi.

Misalnya, pusat data komputasi umum terutama menggunakan Ethernet untuk menghubungkan semua server tanpa transmisi data berskala besar; pusat data komputasi yang dipercepat yang diusulkan oleh Nvidia menggunakan teknologi yang disebut Infinite Band untuk koneksi, yang memiliki throughput data yang sangat tinggi.

Pengoptimalan sistematis juga memungkinkan pusat data komputasi yang dipercepat memiliki efisiensi yang lebih tinggi dan biaya yang lebih rendah daripada pusat data tradisional.

Huang Renxun mengajukan pertanyaan di SIGGRAPH, konferensi grafik komputer tahunan yang diadakan pada bulan Agustus tahun ini: "Apa yang dapat saya beli dengan $100 juta?" Huang Renxun bertanya pada dirinya sendiri dan menjawab: "Di masa lalu, $100 juta dapat membeli pusat data yang terdiri dari 8.800 x86 CPU. , konsumsi daya 5MW; hari ini, 100 juta dolar AS dapat membeli pusat data Iso-Budget yang terdiri dari 2500 GH200, konsumsi daya 3MW, kinerja penalaran AI 12 kali lipat dari data CPU pusat yang disebutkan di atas, dan efisiensi energinya 20 kali."

Di bawah kinerja penalaran AI yang sama, biaya pusat data GPU hanya 1/12 dari biaya pusat data CPU. “Semakin banyak Anda membeli, semakin banyak Anda berhemat.” Ini adalah manifesto Huang Renxun untuk Pusat Data Komputasi Akselerasi miliknya.

Sejauh ini, Nvidia telah membangun lima pusat data dan membantu pelanggan di seluruh dunia membangun pusat data mereka sendiri. Selain itu, mungkin diperlukan waktu berbulan-bulan atau bahkan satu tahun untuk pusat data tradisional beralih dari pengiriman ke pengoperasian, tetapi di Nvidia. Kali ini dalam beberapa minggu. "Keahlian tim di bidang ini luar biasa," kata Huang.

Untuk tiga raksasa cloud, transisi dari pusat data komputasi serba guna ke pusat data komputasi yang dipercepat tidak akan cepat. Ini bukan hanya tentang teknologi dan kemampuan, tetapi juga tentang pengambilan keputusan dan proses perusahaan raksasa tersebut.

Ini memberi Nvidia kesempatan untuk melakukan cloud. Mengambil langkah maju dari pusat data ke cloud hanyalah masalah biasa, dan Nvidia sudah mencoba melakukannya.

3. Chencang Kegelapan

Dalam laporan keuangan Q4 2023 dengan tingkat pertumbuhan bisnis pusat data terendah, Nvidia juga mengumumkan produk baru-DGX Cloud. Pada konferensi GTC sebulan kemudian, DGX Cloud resmi dirilis.

Seperti namanya, ini adalah produk layanan cloud. Apakah Nvidia akan memasuki pasar cloud computing?

Mari kita lihat dulu apa itu DGX. DGX adalah superkomputer pertama yang dirilis oleh Nvidia pada tahun 2017, yang disebut Huang Renxun sebagai "pusat data dalam sasis".

DGX generasi pertama mengintegrasikan 8 GPU (Tesla P100) dan 4 solid-state drive, serta menggunakan teknologi koneksi NVIDIA NVlink. Dalam hal pelatihan pembelajaran mendalam, kinerja satu DGX setara dengan 250 server x86 biasa. Tentu saja, harganya juga mahal, $129.000 untuk satu unit.

Usai pertemuan, Huang Renxun mempresentasikan DGX-1 pertama kepada Elon Musk. Musk adalah salah satu pendiri OpenAI. OpenAI dimulai dari superkomputer ini dan membangun ChatGPT hari ini selangkah demi selangkah.

Saat ini superkomputer DGX telah dikembangkan hingga generasi kelima, empat generasi pertama adalah DGX P100, DGX A100, DGX H100, dan yang terbaru DGX GH200.

DGX Cloud yang dirilis oleh Nvidia adalah versi cloud dari superkomputer yang dirilis sebelumnya.Contoh DGX Cloud (komputer virtual di server cloud) dikonfigurasi dengan 8 A100 atau H100.

Namun, harga DGX Cloud tidak murah, $36.999 per bulan, sekitar 264.000 RMB. Sebagai perbandingan, instans Microsoft Azure ND96asr dengan 8 A100 dan spesifikasi setara harganya $19.854 per bulan, yang hanya setengah dari DGX Cloud.

Mengapa Nvidia berani mematok harga setinggi itu? Jawabannya adalah DGX Cloud adalah solusi turnkey yang mengintegrasikan perangkat lunak dan perangkat keras. **Nvidia tidak lagi mengiklankan dirinya sebagai perusahaan chip GPU, tetapi memposisikan dirinya sebagai perusahaan platform komputasi. **

Selain sumber daya perangkat keras, DGX Cloud juga telah meluncurkan dua platform perangkat lunak pendukung, salah satunya adalah NVIDIA AI Foundations, yang membantu perusahaan membuat model khusus, termasuk model bahasa, visi, dan biomedis; yang lainnya adalah NVIDIA AI Enterprise, yang berisi 4.000 model berbeda. Kerangka kerja AI yang membantu perusahaan menggunakannya di luar kotak. Produk AI Nvidia mirip dengan MaaS yang diluncurkan oleh penyedia layanan cloud domestik seperti Alibaba Cloud.

Huang optimis dengan aliran pendapatan perangkat lunak baru ini, dan mengharapkan pendapatan di ruang AI generatif tumbuh dari porsi "satu digit" dari total pendapatan perusahaan menjadi porsi "substansial" dalam tahun depan. "Kami sangat senang dengan perluasan model bisnis baru ini," kata Huang Renxun.

Peluncuran DGX Cloud secara objektif telah membentuk hubungan kompetitif tertentu dengan penyedia layanan cloud, tetapi Nvidia masih ingin terus menjalin kerja sama yang erat dengan penyedia layanan cloud. Nvidia saat ini tidak membangun infrastruktur cloud lengkap dari awal, tetapi menghosting DGX Cloud di platform cloud dari berbagai penyedia layanan cloud.

Nvidia menjual fasilitas perangkat keras dasar ke vendor awan, lalu membeli sumber daya komputasi awan dari mereka, dan akhirnya menjual layanan awan ke pelanggan perusahaan dan mempertahankan semua pendapatan. Pelanggan dapat mengakses superkomputer AI Nvidia hanya melalui browser untuk menggunakan produk AI Nvidia dan layanan model AI.

Namun, apakah penyedia layanan cloud akan membelinya?

Dalam hal ini, Huang Renxun menjelaskan: "Kerja sama antara layanan cloud NVIDIA dan penyedia layanan cloud akan menjadi situasi yang saling menguntungkan. Kedua pihak akan bersama-sama membuat aplikasi baru dan mengembangkan pasar baru." Huang Renxun mengatakan bahwa idealnya, pelanggan akan membeli NVIDIA DGX Rasio Cloud ke cloud penyedia layanan cloud adalah 1:9.

Oracle adalah penyedia layanan cloud pertama yang mengumumkan kemitraan dengan Nvidia. Raksasa perangkat lunak ini sangat mendesak untuk melakukan transformasi cloud dalam beberapa tahun terakhir, sehingga memiliki motivasi yang cukup untuk membentuk aliansi dengan Nvidia untuk membuat perubahan haluan di pasar cloud computing. Nvidia juga bekerja sama dengan Microsoft Azure, Google Cloud, dan platform cloud lainnya, yang juga diperkirakan akan segera diluncurkan.

** angan-angan Nvidia keras, tetapi tidak semua penyedia layanan cloud akan menerima permintaan Nvidia. **AWS menolak untuk bekerja sama dengan Nvidia pada produk DGX Cloud.

Menurut Reuters, Dave Brown, wakil presiden Amazon Elastic Cloud Computing, berkata: "NVIDIA menghubungi kami dan kami mempelajari model bisnisnya. Tetapi untuk AWS, ini tidak masuk akal." Dia percaya bahwa AWS memiliki kemampuan untuk membangun server yang andal Pengalaman jangka panjang dengan keahlian rantai pasokan yang ada.

AWS mulai membeli chip H100 Nvidia pada bulan Maret tahun ini, tetapi hanya sebagai bagian dari sistem yang dikembangkan sendiri. AWS juga mempertimbangkan untuk menggunakan chip kecerdasan buatan AMD terbaru, MI300, tetapi belum membuat keputusan akhir.

Menghadapi pasar AI generatif yang muncul, distribusi manfaat antara Nvidia dan penyedia layanan cloud akan terus berubah. Namun cukup jelas bahwa Nvidia telah memindahkan keju dari penyedia layanan cloud tersebut.

4. Kuras dari bawah

Peluncuran DGX Cloud hanyalah langkah pertama, dan partisipasi Nvidia di pasar komputasi awan masih semakin dalam. Pada langkah ini, Nvidia tidak memilih untuk mengakhiri secara langsung, melainkan memilih untuk mendukung pesaing tiga raksasa cloud tersebut.

Tahun ini, vendor cloud kecil dan menengah bernama CoreWeave bermunculan, menjadi penyedia layanan cloud yang lebih populer dari ketiga raksasa cloud tersebut. **CoreWeave mengklaim sebagai satu-satunya penyedia layanan cloud di dunia yang dapat "menyediakan Nvidia H100 dalam skala besar". **

Menurut perkiraan dari situs web GPU Utils, jumlah H100 yang dipesan CoreWeave dari Nvidia sekitar 35.000-40.000. Sebagai perbandingan, superkomputer A3 yang dirilis oleh Google pada bulan Mei tahun ini memiliki sekitar 26.000 H100, instans mesin virtual EC2 P5 yang diluncurkan oleh Amazon AWS pada bulan Juli didasarkan pada 20.000 H100, dan mesin virtual Azure ND H100v5 yang diluncurkan oleh Microsoft pada bulan Agustus, Berisi hanya 8 buah H100. Namun, Microsoft memiliki sekitar 285.000 A100.

Apa asal usul CoreWeave? Perusahaan, yang didirikan pada tahun 2017, awalnya bergerak dalam bisnis penambangan cryptocurrency Ethereum, dan pada tahun 2018 menjadi penambang Ethereum terbesar di Amerika Utara. Saat itu, CoreWeave menerapkan lebih dari 50.000 GPU, menyediakan lebih dari 1% daya komputasi jaringan Ethereum.

Selain penambangan, CoreWeave juga mulai mencoba melayani beberapa pelanggan perusahaan, seperti kecerdasan buatan, media hiburan, dan kimia komputasi. Pada tahun 2019, CoreWeave sepenuhnya beralih dari GPU tingkat konsumen ke GPU tingkat perusahaan Nvidia, karena GPU tingkat perusahaan dapat bekerja sepanjang waktu, meningkatkan pemanfaatan GPU hingga hampir 100%.

Pada tahun 2021, CoreWeave secara resmi meluncurkan platform cloud GPU berbasis Nvidia. Pada kuartal ketiga tahun 2022, dengan bergabungnya Ethereum dan berakhirnya era penambangan kartu grafis skala besar, CoreWeave telah sepenuhnya berubah menjadi penyedia layanan cloud, dan mengumumkan pada bulan November tahun ini bahwa ia telah menjadi batch pertama. dari provider yang menggunakan chip super NVIDIA HGX H100. Salah satu penyedia layanan cloud.

Dibandingkan dengan tiga raksasa Amazon, Microsoft, dan Google, CoreWeave tidak berencana mengembangkan chip AI-nya sendiri, yang sangat diapresiasi oleh Nvidia.

Pada April 2023, Nvidia memperdalam kerja samanya dengan CoreWeave, dan selain kerja sama bisnis, Nvidia juga berinvestasi dalam putaran pembiayaan B1 CoreWeave senilai $221 juta. Yang terpenting, Nvidia telah memberi CoreWeave saluran unik untuk A100 dan H100 yang langka.

Dalam wawancara baru-baru ini dengan Bloomberg, Brannin McBee, co-founder dan chief strategy officer CoreWeave, mengatakan bahwa Nvidia telah menjual chip tahun ini, dan pesanan CoreWeave juga dijadwalkan untuk Q2 tahun depan.

CoreWeave mungkin memiliki persediaan GPU Nvidia terbesar di dunia. Dalam konteks kekurangan GPU saat ini, chip bahkan lebih berharga daripada ekuitas, dan CoreWeave telah menciptakan metode pembiayaan yang inovatif. Pada bulan Agustus tahun ini, CoreWeave memperoleh pembiayaan utang sebesar $2,3 miliar dengan menggadaikan chip GPU-nya. Sebelumnya, putaran pembiayaan ekuitas B1 CoreWeave hanya menerima $421 juta.

Dengan aliansi strategis "cloud + GPU" dengan Nvidia, kinerja CoreWeave juga meroket.

Sebelum tahun ini, CoreWeave adalah perusahaan yang kurang dikenal. Tapi sekarang, CoreWeave siap menghasilkan miliaran dolar darinya melalui GPU-nya. Dalam sebuah wawancara dengan VentureBeat, salah satu pendiri dan kepala strategi CoreWeave Brannin McBee mengungkapkan bahwa pendapatan CoreWeave pada tahun 2022 akan menjadi US$30 juta, akan mencapai US$500 juta tahun ini, dan telah menandatangani kontrak hampir US$2 miliar tahun depan.

CoreWeave juga mengumumkan pusat data baru senilai $1,6 miliar di Texas dan berencana memperluas ke 14 pusat data pada akhir tahun. Saat ini, Infleksi unicorn bintang AI menggunakan cloud CoreWeave untuk membangun cluster GPU sekitar 22.000 H100 Perusahaan mengumumkan putaran baru pembiayaan sebesar $1,3 miliar pada bulan Juli tahun ini. Perlu disebutkan bahwa NVIDIA juga termasuk di antara investor Infleksi.

CoreWeave adalah perusahaan komputasi awan pertama yang diinvestasikan Nvidia pada tahun ini, tetapi itu bukan satu-satunya.

Menurut The Information, Nvidia akan mencapai kesepakatan investasi dengan penyedia layanan cloud lain, Lambda Labs.Nvidia mungkin menginvestasikan US$300 juta, dan valuasi Lambda Labs akan melebihi US$1 miliar. Lambda Labs mengklaim mampu menyediakan sumber daya komputasi NVIDIA A100 dan H100 dengan harga termurah di dunia.

Saat ini, dengan alokasi sumber daya GPU yang "wajar", Nvidia telah menjadi pedagang di pasar komputasi awan dalam arti sebenarnya, dan telah menangkap pegangan raksasa awan dari root-Microsoft adalah kasus yang bagus.

Microsoft menambahkan faktor risiko baru ke laporan pendapatan terbarunya: "Layanan dapat terganggu jika tidak dapat mengamankan chip kecerdasan buatan yang cukup untuk pusat datanya."

Dalam menghadapi kebutuhan komputasi AI yang sangat besar, beban GPU Microsoft sangat sedikit, dan bahkan harus mencari bantuan dari pesaingnya, vendor cloud kecil dan menengah. Menurut CNBC, Microsoft "telah setuju untuk menghabiskan miliaran dolar selama beberapa tahun ke depan untuk membeli infrastruktur komputasi awan dari startup CoreWeave." Di bawah kendali Nvidia, Microsoft harus mengizinkan penyedia layanan cloud kecil dan menengah seperti CoreWeave untuk mendapatkan selisih harga dari GPU.

Dengan berinvestasi pada penyedia layanan cloud skala kecil dan menengah, Nvidia telah menginjakkan kaki di bidang cloud computing. Meski tidak ada upaya untuk membangun infrastruktur cloud dan bersaing langsung dengan raksasa cloud, kami tidak heran jika Nvidia langsung memasuki pasar dengan mengakuisisi penyedia layanan cloud kecil dan menengah di masa mendatang.

Terlepas dari apakah Nvidia pada akhirnya akan memasuki permainan, itu telah menjadi pemain di belakang layar terbesar di pasar komputasi awan dalam gelombang AI generatif.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)