Nvidia và những gã khổng lồ đám mây phải có một trận chiến

Tác giả: Triệu Kiến

Nguồn: Gia Tử Quảng Nam

Nguồn hình ảnh: Được tạo bởi Unbounded AI

"Chạy để kiếm thức ăn, hoặc chạy để không bị người khác ăn thịt. Trong cả hai trường hợp, hãy tiếp tục chạy."

Đây là thông điệp của Giám đốc điều hành Nvidia Huang Renxun gửi tới các sinh viên tốt nghiệp trong bài phát biểu của ông tại Đại học Quốc gia Đài Loan năm nay, tất nhiên, đó cũng là cách giải thích tâm lý của đế chế vốn hóa thị trường nghìn tỷ đô la do Huang Renxun tạo ra.

Vào năm 2023, Nvidia trên đường chạy trốn đã gặp phải AI tổng hợp, mà Huang Renxun đã nhiều lần gọi là "khoảnh khắc iPhone của AI". Tại thời điểm này, Huang Renxun đặt mục tiêu có cơ hội trở thành thợ săn hơn là con mồi - Yun.

Có vẻ như Nvidia không nên có động lực để làm đám mây, không chỉ vì các nhà cung cấp dịch vụ đám mây là khách hàng quan trọng của Nvidia và mua hàng tỷ đô la GPU từ Nvidia mỗi năm, mà còn bởi vì vấn đề này dường như không có cơ hội chiến thắng.

Thị trường điện toán đám mây ngày nay được kiểm soát chặt chẽ bởi ba gã khổng lồ đám mây Amazon AWS, Microsoft Azure và Google Cloud. Theo dữ liệu của Statista, vào năm 2022, thị phần của AWS sẽ là 32%, của Azure là 23% và của Google Cloud là 10%, tổng thị phần của ba công ty sẽ đạt 65%.

Không phải là chúng ta chưa từng thấy đối thủ. Trong mười năm qua, các công ty nổi tiếng như VMware, Dell và Hewlett-Packard đều muốn giành được một phần thị trường điện toán đám mây, nhưng tất cả đều thất bại không có ngoại lệ.

Tuy nhiên, giống như mọi cuộc cách mạng công nghệ đều tạo ra những người tạo ra xu hướng mới, làn sóng AI sáng tạo này, nhà sản xuất chip Nvidia bắt đầu từng bước thử nghiệm thị trường điện toán đám mây:

**Ở bước đầu tiên, tại hội nghị GTC vào ngày 21 tháng 3 năm nay, NVIDIA đã phát hành DGX Cloud. **Ngay từ tên gọi, có thể thấy đây là một sản phẩm đám mây, khách hàng có thể trực tiếp nhận các sản phẩm và dịch vụ AI của Nvidia trên đám mây hoặc trung tâm dữ liệu cục bộ bằng cách thuê chúng hàng tháng;

**Bước thứ hai là đầu tư vào các đối thủ cạnh tranh của ba gã khổng lồ trên nền tảng đám mây. **Nvidia đã liên tục đầu tư vào CoreWeave và Lambda Labs, hai nhà cung cấp dịch vụ đám mây vừa và nhỏ ở Hoa Kỳ, đồng thời phân bổ chip GPU khan hiếm cho họ. Làm thế nào phóng đại là "sở thích" này? Vào thời điểm khó tìm lõi GPU, CoreWeave đã có thể thu được khoản nợ 2,3 tỷ đô la Mỹ bằng cách thế chấp các GPU dồi dào của mình, đặc biệt là H100.

Mặc dù mới bắt đầu, nhưng cách bố trí của mảng kinh doanh trên nền tảng đám mây thể hiện sự phản công của Nvidia trước những gã khổng lồ trên nền tảng đám mây.

Như chúng ta đã biết, Google, Amazon và Microsoft đã liên tiếp tung ra các dự án chip AI tự phát triển trong nội bộ - dòng TPU của Google, dòng Inferentia và Trainium của Amazon và chip Athena của Microsoft đã được ra mắt trong năm nay. Ba gã khổng lồ điện toán đám mây có đủ nguồn lực và động lực để tự phát triển chip AI nhằm giảm "thuế GPU" của Nvidia.

Nvidia nhận thức rõ điều này. Huang Renxun đã nói thẳng trong cuộc gọi hội nghị về báo cáo thu nhập quý vừa qua rằng "chúng tôi đã chú ý đến sự cạnh tranh và chúng tôi luôn có sự cạnh tranh."

Huang Renxun không thể ngăn cản sự mở rộng của ba nhà cung cấp dịch vụ đám mây lớn, nhưng có lẽ cách phòng thủ tốt nhất là tấn công và phương pháp phản công của Nvidia là trực tiếp lên đám mây.

Với hai con át chủ bài là A100 và H100 trong tay trong một thời gian dài, hai con chip này là lựa chọn tốt nhất cho đào tạo và suy luận mô hình quy mô lớn, và không ai trong số họ, Nvidia có cơ hội trở thành người dẫn đầu thực sự trong lĩnh vực này. thị trường điện toán đám mây, nhà điều hành hậu trường.

Một cuộc chiến công khai và bí mật xung quanh chip và điện toán đám mây đang dần diễn ra giữa 4 gã khổng lồ công nghệ với 5 vốn hóa thị trường hàng đầu toàn cầu.

1. Suýt ngã trước bình minh

Những ai đã quen với Nvidia sẽ biết Nvidia ngày nay đẹp như thế nào và Nvidia năm ngoái khốn khổ như thế nào.

Các hoạt động kinh doanh cốt lõi của Nvidia bao gồm trung tâm dữ liệu, trò chơi, hình ảnh chuyên nghiệp và ô tô. Trong quý 2 năm 2020, hoạt động kinh doanh trung tâm dữ liệu của Nvidia lần đầu tiên vượt qua trò chơi, trở thành nguồn doanh thu lớn nhất của Nvidia.

Trong cuộc họp báo cáo tài chính quý 4 năm 2022 (tương ứng với năm tự nhiên từ tháng 11 năm 2021 đến tháng 1 năm 2022), Nvidia đã công bố báo cáo tài chính quý 4 khả quan và hoạt động kinh doanh trung tâm dữ liệu của họ đã tăng 71% so với cùng kỳ năm ngoái. Huang Renxun đã nói một cách lạc quan vào thời điểm đó: "Nền tảng điện toán của Nvidia đã mở ra nhu cầu thị trường phi thường." Tuy nhiên, một tuần sau, xung đột giữa Nga và Ukraine nổ ra, làm gián đoạn chuỗi cung ứng nguyên liệu thô chính. Cùng với tác động của dịch bệnh, tốc độ tăng trưởng mảng kinh doanh trung tâm dữ liệu của Nvidia sẽ tiếp tục chậm lại trong suốt năm 2022.

Trong báo cáo tài chính quý 4 năm 2023 được công bố vào tháng 2 năm nay, tốc độ tăng trưởng của các trung tâm dữ liệu NVIDIA chỉ là 11%, mức thấp kỷ lục và là lần đầu tiên chuỗi này sụt giảm kể từ năm 2020.

Vào năm 2022, giá cổ phiếu của Nvidia cũng sẽ giảm một nửa. Tất nhiên, ngày nay nó đã tăng trở lại, và sự ra đời của ChatGPT đã cứu Nvidia.

Lưu ý: Nvidia sẽ công bố báo cáo tài chính quý 2 năm 2024 vào thứ Tư (23 tháng 8), tương ứng với tháng 5-tháng 7 năm 2023.

Trong số nhiều nguyên nhân khiến tăng trưởng kinh doanh giảm sút, nhu cầu từ các khách hàng lớn giảm là đáng cảnh giác nhất. Tại báo cáo tài chính quý 4 năm 2023, Giám đốc tài chính Nvidia Colette Kress đã công bố một con số: Khoảng 40% trong số 15 tỷ USD doanh thu của lĩnh vực trung tâm dữ liệu trong năm tài chính 2023 (khoảng 6 tỷ USD) đến từ các trung tâm dữ liệu siêu quy mô và dịch vụ đám mây. nhà cung cấp.

Nhưng nếu bạn chỉ nhìn vào quý IV, đó chỉ là một phần tư. Các nhà xây dựng trung tâm dữ liệu siêu quy mô và nhà cung cấp dịch vụ đám mây đang giảm mạnh chi tiêu cho GPU.

Ngoài nguyên nhân khách quan là nhu cầu sụt giảm, kế hoạch tự phát triển chip AI của ba gã khổng lồ điện toán đám mây đang bào mòn thị phần GPU NVIDIA từng chút một.

Google đã ra mắt TPU chip AI tự phát triển thế hệ đầu tiên vào năm 2016 và 5 năm sau, vào ngày 19 tháng 5 năm 2021, hãng đã ra mắt TPU v4 thế hệ thứ tư. Trong một báo cáo nghiên cứu được công bố vào năm nay, Google cho biết họ đã xâu chuỗi 4.000 TPU v4 để xây dựng một siêu máy tính chạy nhanh hơn 1,7 lần và hiệu quả hơn một cỗ máy tương đương được cung cấp bởi GPU Nvidia A100 cao hơn 1,9 lần.

Amazon cũng có truyền thống tự phát triển chip, không chỉ cho Nvidia mà cho tất cả các nhà sản xuất chip. Hiện tại, Amazon đã tung ra 4 dòng chip tự phát triển - chip mạng Nitro series, chip máy chủ Graviton series, chip suy luận AI Inferentia series, chip đào tạo AI Trainium. Trong số đó, hai chip AI sau cạnh tranh với GPU NVIDIA.

Dù vào cuộc muộn nhưng Microsoft đã "đến muộn". Ngày 18 tháng 4 năm nay, theo The Information, kể từ năm 2019, Microsoft đã bí mật phát triển chip AI, tên mã nội bộ là "Athena" (Athena), hàng trăm nhân viên đang làm việc trong dự án Athena, Microsoft đã đầu tư khoảng 2 tỷ đô la. . Một số nhân viên của Microsoft và OpenAI đã có thể lấy chip để kiểm tra hiệu năng trên các mẫu ngôn ngữ lớn mới nhất như GPT-4.

Các nhà cung cấp dịch vụ đám mây phải trả một lượng lớn "thuế Nvidia" hàng năm để mua GPU, đặc biệt là sau sự bùng nổ của AI thế hệ mới.

Vào tháng 2 năm nay, New Street Research đã đưa ra ước tính: công cụ tìm kiếm Bing dựa trên ChatGPT cần 8 GPU để trả lời câu hỏi của người dùng trong vòng một giây. Với tốc độ này, Microsoft sẽ cần hơn 20.000 máy chủ với 8 GPU để triển khai các mô hình trong Bing cho mọi người dùng, điều này sẽ tiêu tốn của Microsoft 4 tỷ USD. Ở quy mô của Google, nơi xử lý 8-9 tỷ truy vấn mỗi ngày, nó sẽ tiêu tốn 80 tỷ USD.

Các chip AI tự phát triển của các nhà cung cấp dịch vụ đám mây sẽ không được bán ra bên ngoài và sẽ không cạnh tranh trực tiếp với Nvidia. Tuy nhiên, bằng cách triển khai chip tự phát triển thay vì GPU trong trung tâm dữ liệu, chi phí có thể được cắt giảm một cách hiệu quả. Ví dụ: Google đã triển khai hàng trăm siêu máy tính TPU v4 trong dịch vụ đám mây của mình.

Ba nhà cung cấp dịch vụ đám mây lớn có đủ nguồn lực và động lực để phát triển chip của riêng họ, đây được coi là vết nứt trong đế chế Nvidia. Nvidia nhận thức rõ điều này, nhưng dường như không còn cách nào tốt hơn.

Cho đến khi ChatGPT xuất hiện, Nvidia, vốn đang bị các nhà cung cấp dịch vụ đám mây chèn ép từng bước, đã nhìn ra điểm đột phá để phản đòn. Vì các nhà cung cấp dịch vụ đám mây có thể tạo ra chip, Nvidia không thể tạo ra đám mây trong thời đại AI?

**2. Nvidia có cơ hội làm đám mây không? **

Nvidia hiện là người hưởng lợi nhiều nhất từ cuộc cách mạng AI tổng hợp và Huang Renxun luôn nói về "thời điểm iPhone của AI" trong năm nay. Nhu cầu bùng nổ đối với AI sáng tạo đã khiến GPU trở thành một loại tiền tệ mạnh. Một số người chỉ đơn giản nói rằng "GPU là đồng đô la mới".

Từ GPU đến đám mây, Nvidia có thực sự có cơ hội?

Việc đào tạo và lập luận về AI tổng quát chủ yếu được thực hiện trên đám mây và các nhà cung cấp dịch vụ đám mây cung cấp cơ sở hạ tầng AI sẽ là một trong những người hưởng lợi lớn nhất từ làn sóng AI tổng quát. Theo dữ liệu ước tính của công ty đầu tư mạo hiểm A16Z ở Thung lũng Silicon, 10% đến 20% tổng doanh thu do AI tổng quát tạo ra cuối cùng sẽ chảy vào tay các nhà cung cấp dịch vụ đám mây.

Tuy nhiên, quá trình này sẽ không nhanh chóng. Giám đốc điều hành Amazon, Andy Jassy, cho biết trong cuộc gọi thu nhập quý 2 năm 2023: "AI sáng tạo chắc chắn sẽ thay đổi trải nghiệm của hầu hết khách hàng. Nhưng vẫn còn quá sớm và hầu hết các công ty vẫn đang xem xét cách đạt được mục tiêu này. Chúng tôi là một cuộc chạy marathon tại một giai đoạn rất sớm."

Bản chất của dịch vụ đám mây là ảo hóa tài nguyên phần cứng trong trung tâm dữ liệu và sau đó cho thị trường thuê chúng. Gần như 100% máy chủ trong các trung tâm dữ liệu truyền thống được xây dựng dựa trên CPU Intel và AMD, CPU được ví như “nhà tổng hợp có bộ não mạnh nhất” cung cấp khả năng “tính toán tổng hợp” - xử lý hệ điều hành, phần mềm hệ thống và các chương trình ứng dụng. có các nhiệm vụ của chương trình như lập lịch trình hướng dẫn phức tạp, lặp, phân nhánh, phán đoán logic và thực hiện.

Nhưng CPU không giỏi xử lý dữ liệu quy mô lớn và tính toán song song, đó là thứ mà trí tuệ nhân tạo cần và GPU Nvidia thì giỏi. GPU giống như một "chuyên gia điện toán bạo lực", chuyên xử lý hình ảnh, học sâu và đào tạo mô hình lớn hiện tại, suy luận và các nhiệm vụ khác. Huang Renxun gọi khả năng tính toán song song ồ ạt này là "tính toán tăng tốc".

Vào năm 2012, Jeff Hinton, cha đẻ của deep learning, và những người học việc của ông đã lần đầu tiên thử huấn luyện mô hình mạng thần kinh tích chập AlexNet trên GPU NVIDIA và giành chiến thắng trong cuộc thi nhận dạng hình ảnh chỉ trong một cú trượt ngã. Sự cố này đã tạo ra sự bùng nổ của deep learning trong mười năm tới Toàn bộ ngành công nghiệp trí tuệ nhân tạo, bao gồm cả chính Nvidia, đã nhận ra tiềm năng của GPU trong việc tăng tốc điện toán.

Vận may của Nvidia bắt đầu chuyển hướng. Kể từ đó, Huang Renxun đã nhiều lần hét lên "Định luật Moore đã chết". Ông tin rằng kỷ nguyên mở rộng CPU đã qua, cũng như hiệu suất tăng gấp 10 lần với cùng mức chi phí cứ sau 5 năm. Nó sẽ bị thay thế bởi GPU, và Huang Renxun đã đặc biệt phát minh ra một "Định luật Huang" - GPU sẽ thúc đẩy hiệu suất AI tăng gấp đôi qua từng năm.

Trong mười năm từ 2012 đến 2022, chúng ta có thể gọi đó là điện toán tăng tốc từ 0 đến 1 và trí tuệ nhân tạo đã đổ bộ vào các ngành cụ thể và các tình huống cụ thể như nhận dạng hình ảnh. Tuy nhiên, nhu cầu về AI trong giai đoạn này vẫn chưa đủ lớn, hãng nghiên cứu Aletheia dự đoán tỷ lệ thâm nhập thị trường máy chủ AI hiện tại là dưới 5%. Điều này còn lâu mới đủ để hiện thực hóa giấc mơ điện toán tăng tốc của Huang Renxun.

Cho đến khi ChatGPT ra đời vào tháng 11 năm 2022, "AI iPhone moment" mới xuất hiện. Đây có thể được coi là sự khởi đầu của việc mở rộng quy mô điện toán tăng tốc từ 1 lên 10.

Doanh thu AI sáng tạo (ảnh qua Bloomberg)

Huang Renxun tin rằng sự kết hợp giữa điện toán tăng tốc và AI sáng tạo sẽ thay đổi các phương pháp điện toán trong 60 năm qua. Khi các công ty đua nhau áp dụng trí tuệ nhân tạo AI cho mọi sản phẩm, dịch vụ và quy trình kinh doanh, cơ sở hạ tầng trung tâm dữ liệu toàn cầu trị giá hàng nghìn tỷ đô la sẽ chuyển đổi từ điện toán đa năng sang điện toán tăng tốc và kết quả là việc tái tạo trung tâm dữ liệu chắc chắn sẽ tạo ra cơ hội thị trường khổng lồ.

Trong cuộc gọi hội nghị thu nhập của quý trước, Huang Renxun đã tuyên bố: "Chúng tôi đang ở trong năm đầu tiên của một trung tâm dữ liệu kéo dài một thập kỷ."

Huang Renxun nói rằng điện toán tăng tốc là một thách thức toàn diện. Nó phải tích hợp tất cả phần mềm, tất cả các thư viện khung và tất cả các thuật toán cho kỹ thuật. Những nhiệm vụ này không chỉ dành cho một con chip mà còn cho toàn bộ trung tâm dữ liệu. Trung tâm dữ liệu là một siêu máy tính, để đạt được hiệu suất tốt nhất, cần phải tối ưu hóa toàn bộ hệ điều hành mạng, công cụ điện toán phân tán, thiết bị mạng, bộ chuyển mạch và kiến trúc máy tính.

Ví dụ: trung tâm dữ liệu điện toán chung chủ yếu sử dụng Ethernet để kết nối tất cả các máy chủ mà không cần truyền dữ liệu quy mô lớn; trung tâm dữ liệu điện toán tăng tốc do Nvidia đề xuất sử dụng công nghệ có tên Infinite Band để kết nối, có thông lượng dữ liệu cực cao.

Tối ưu hóa hệ thống cũng cho phép các trung tâm dữ liệu điện toán tăng tốc có hiệu quả cao hơn và chi phí thấp hơn so với các trung tâm dữ liệu truyền thống.

Huang Renxun đã đặt một câu hỏi tại SIGGRAPH, hội nghị đồ họa máy tính hàng năm được tổ chức vào tháng 8 năm nay: "Tôi có thể mua gì với 100 triệu USD?" Huang Renxun đã tự hỏi mình và trả lời: "Trước đây, 100 triệu USD có thể mua một trung tâm dữ liệu bao gồm CPU 8.800 x86. , mức tiêu thụ điện năng là 5MW, ngày nay, 100 triệu đô la Mỹ có thể mua một trung tâm dữ liệu Iso-Budget bao gồm 2500 GH200, mức tiêu thụ điện năng là 3MW, hiệu suất lý luận AI gấp 12 lần so với dữ liệu CPU trung tâm đã đề cập ở trên, và hiệu quả năng lượng là 20 lần."

Với cùng hiệu suất lý luận AI, chi phí của trung tâm dữ liệu GPU chỉ bằng 1/12 so với trung tâm dữ liệu CPU. "Bạn càng mua nhiều, bạn càng tiết kiệm được nhiều." Đây là tuyên ngôn của Huang Renxun cho Trung tâm dữ liệu điện toán tăng tốc của mình.

Cho đến nay, Nvidia đã xây dựng năm trung tâm dữ liệu và giúp khách hàng trên khắp thế giới xây dựng trung tâm dữ liệu của riêng họ. Hơn nữa, có thể mất vài tháng, thậm chí cả năm để một trung tâm dữ liệu truyền thống đi từ bàn giao đến vận hành, nhưng ở Nvidia. Thời gian này tính bằng tuần. "Chuyên môn của nhóm trong lĩnh vực này là đáng chú ý," Huang nói.

Đối với ba gã khổng lồ về đám mây, quá trình chuyển đổi từ trung tâm dữ liệu điện toán đa năng sang trung tâm dữ liệu điện toán tăng tốc sẽ không nhanh chóng. Đây không chỉ là về công nghệ và khả năng, mà còn về quá trình ra quyết định và quy trình của các công ty khổng lồ như vậy.

Điều này mang lại cho Nvidia cơ hội làm đám mây. Tiến một bước từ trung tâm dữ liệu lên đám mây chỉ là chuyện đương nhiên và Nvidia đang cố gắng làm điều đó.

3. Darkness Chencang

Trong báo cáo tài chính quý 4 năm 2023 với tốc độ tăng trưởng thấp nhất của mảng kinh doanh trung tâm dữ liệu, Nvidia cũng đã công bố một sản phẩm mới-DGX Cloud. Tại hội nghị GTC một tháng sau đó, DGX Cloud đã chính thức được phát hành.

Có thể thấy ngay từ cái tên, đây là một sản phẩm dịch vụ đám mây. Nvidia sẽ tham gia vào thị trường điện toán đám mây?

Trước tiên hãy xem DGX là gì. DGX là siêu máy tính đầu tiên được Nvidia phát hành vào năm 2017, được Huang Renxun gọi là "trung tâm dữ liệu trong khung máy".

DGX thế hệ đầu tích hợp 8 GPU (Tesla P100) và 4 ổ cứng thể rắn, đồng thời sử dụng công nghệ kết nối NVIDIA NVlink. Về mặt đào tạo học sâu, hiệu suất của một DGX tương đương với 250 máy chủ x86 thông thường. Tất nhiên, nó cũng đắt, ở mức 129.000 USD cho một chiếc.

Sau cuộc họp, Huang Renxun đã tặng chiếc DGX-1 đầu tiên cho Elon Musk. Musk là người đồng sáng lập OpenAI, OpenAI bắt đầu từ siêu máy tính này và từng bước xây dựng ChatGPT ngày nay.

Ngày nay, siêu máy tính DGX đã được phát triển đến thế hệ thứ 5. Bốn thế hệ đầu tiên là DGX P100, DGX A100, DGX H100 và mới nhất là DGX GH200.

DGX Cloud do Nvidia phát hành là phiên bản đám mây của siêu máy tính đã phát hành trước đó, một phiên bản DGX Cloud (máy tính ảo trong máy chủ đám mây) được cấu hình với 8 A100 hoặc H100.

Tuy nhiên, giá của DGX Cloud không hề rẻ, 36.999 USD/tháng, khoảng 264.000 RMB. Để so sánh, phiên bản Microsoft Azure ND96asr với 8 A100 và các thông số kỹ thuật tương đương có giá 19.854 USD mỗi tháng, chỉ bằng một nửa so với DGX Cloud.

Tại sao Nvidia dám đặt giá cao như vậy? Câu trả lời là DGX Cloud là một giải pháp chìa khóa trao tay tích hợp phần mềm và phần cứng. **Nvidia không còn tự quảng cáo mình là công ty sản xuất chip GPU nữa mà định vị mình là công ty nền tảng điện toán. **

Ngoài tài nguyên phần cứng, DGX Cloud cũng đã ra mắt hai nền tảng phần mềm hỗ trợ: Một là NVIDIA AI Foundations, giúp các công ty tạo ra các mô hình tùy chỉnh, bao gồm các mô hình ngôn ngữ, thị giác và y sinh; nền tảng còn lại là NVIDIA AI Enterprise, chứa 4.000 mô hình khác nhau. Một khung AI giúp các doanh nghiệp sử dụng nó ngay lập tức. Các sản phẩm AI của Nvidia tương tự như MaaS do các nhà cung cấp dịch vụ đám mây trong nước như Alibaba Cloud tung ra.

Huang rất lạc quan về các luồng doanh thu phần mềm mới này và hy vọng doanh thu trong lĩnh vực AI tổng hợp sẽ tăng từ phần "một chữ số" trong tổng doanh thu của công ty lên một phần "đáng kể" trong năm tới. "Chúng tôi rất vui mừng về việc mở rộng mô hình kinh doanh mới." Huang Renxun nói.

Việc ra mắt DGX Cloud về mặt khách quan đã hình thành mối quan hệ cạnh tranh nhất định với các nhà cung cấp dịch vụ đám mây, nhưng Nvidia vẫn muốn tiếp tục duy trì mối quan hệ hợp tác chặt chẽ với các nhà cung cấp dịch vụ đám mây. Nvidia hiện không xây dựng cơ sở hạ tầng đám mây hoàn chỉnh từ đầu mà lưu trữ DGX Cloud trên nền tảng đám mây của nhiều nhà cung cấp dịch vụ đám mây khác nhau.

Nvidia bán các thiết bị phần cứng cơ bản cho các nhà cung cấp đám mây, sau đó mua tài nguyên điện toán đám mây từ họ và cuối cùng bán dịch vụ đám mây cho khách hàng doanh nghiệp và giữ lại toàn bộ doanh thu. Khách hàng chỉ có thể truy cập siêu máy tính AI của Nvidia thông qua trình duyệt để sử dụng các sản phẩm AI và dịch vụ mô hình AI của Nvidia.

Tuy nhiên, liệu các nhà cung cấp dịch vụ đám mây có mua nó không?

Về vấn đề này, Huang Renxun giải thích: "Sự hợp tác giữa dịch vụ đám mây NVIDIA và các nhà cung cấp dịch vụ đám mây sẽ là một tình huống đôi bên cùng có lợi. Hai bên sẽ cùng nhau tạo ra các ứng dụng mới và phát triển thị trường mới". NVIDIA DGX Tỷ lệ đám mây trên đám mây của nhà cung cấp dịch vụ đám mây là 1:9.

Oracle là nhà cung cấp dịch vụ đám mây đầu tiên công bố hợp tác với Nvidia. Gã khổng lồ phần mềm đã khẩn trương tiến hành chuyển đổi đám mây trong những năm gần đây, vì vậy họ có đủ động lực để thành lập liên minh với Nvidia nhằm tạo ra sự thay đổi trong thị trường điện toán đám mây. Nvidia cũng đang làm việc với Microsoft Azure, Google Cloud và các nền tảng đám mây khác, dự kiến cũng sẽ sớm ra mắt.

** Mơ tưởng của Nvidia thì to tát, nhưng không phải nhà cung cấp dịch vụ đám mây nào cũng chấp nhận yêu cầu của Nvidia. **AWS từ chối hợp tác với Nvidia trên các sản phẩm DGX Cloud.

Theo Reuters, Dave Brown, phó chủ tịch mảng Điện toán đám mây đàn hồi của Amazon cho biết: "NVIDIA đã liên hệ với chúng tôi và chúng tôi đã nghiên cứu mô hình kinh doanh. Nhưng đối với AWS, điều này không có nhiều ý nghĩa". Ông tin rằng AWS có khả năng xây dựng máy chủ đáng tin cậy.Kinh nghiệm lâu năm với kiến thức chuyên môn về chuỗi cung ứng hiện có.

AWS bắt đầu mua chip H100 của Nvidia vào tháng 3 năm nay, nhưng chỉ như một phần của hệ thống tự phát triển. AWS cũng đang xem xét sử dụng chip trí tuệ nhân tạo mới nhất của AMD là MI300 nhưng vẫn chưa đưa ra quyết định cuối cùng.

Trước một thị trường AI mới đang nổi lên, việc phân chia lợi ích giữa Nvidia và các nhà cung cấp dịch vụ đám mây sẽ tiếp tục thay đổi. Nhưng khá rõ ràng là Nvidia đã chuyển pho mát của nhà cung cấp dịch vụ đám mây.

4. Thoát nước từ phía dưới

Việc ra mắt DGX Cloud mới chỉ là bước đầu tiên và sự tham gia của Nvidia vào thị trường điện toán đám mây vẫn đang ngày càng sâu rộng. Ở bước này, Nvidia không chọn tự mình kết thúc mà chọn hỗ trợ các đối thủ của ba gã khổng lồ điện toán đám mây.

Năm nay, một nhà cung cấp đám mây vừa và nhỏ có tên CoreWeave đã nổi lên, trở thành nhà cung cấp dịch vụ đám mây nổi tiếng hơn cả ba gã khổng lồ đám mây. **CoreWeave tuyên bố là nhà cung cấp dịch vụ đám mây duy nhất trên thế giới có thể "cung cấp Nvidia H100 trên quy mô lớn". **

Theo ước tính từ trang web GPU Utils, số lượng H100 mà CoreWeave đặt hàng từ Nvidia vào khoảng 35.000-40.000. Để so sánh, siêu máy tính A3 do Google phát hành vào tháng 5 năm nay có khoảng 26.000 H100, phiên bản máy ảo EC2 P5 do Amazon AWS ra mắt vào tháng 7 dựa trên 20.000 H100 và máy ảo Azure ND H100v5 do Microsoft ra mắt vào tháng 8, chứa chỉ có 8 cái H100. Tuy nhiên, Microsoft sở hữu khoảng 285.000 chiếc A100.

Nguồn gốc của CoreWeave là gì? Công ty được thành lập vào năm 2017, ban đầu chủ yếu tham gia vào hoạt động kinh doanh khai thác tiền điện tử Ethereum và vào năm 2018 đã trở thành công ty khai thác Ethereum lớn nhất ở Bắc Mỹ. Vào thời điểm đó, CoreWeave đã triển khai hơn 50.000 GPU, cung cấp hơn 1% sức mạnh tính toán của mạng Ethereum.

Ngoài khai thác, CoreWeave cũng đã bắt đầu cố gắng phục vụ một số khách hàng doanh nghiệp, chẳng hạn như trí tuệ nhân tạo, phương tiện giải trí và hóa học tính toán. Vào năm 2019, CoreWeave đã chuyển hoàn toàn từ GPU cấp người tiêu dùng sang GPU cấp doanh nghiệp của Nvidia, vì GPU cấp doanh nghiệp có thể chạy suốt ngày đêm, tăng mức sử dụng GPU lên gần 100%.

Vào năm 2021, CoreWeave chính thức ra mắt nền tảng đám mây GPU dựa trên Nvidia. Vào quý 3 năm 2022, với việc hợp nhất Ethereum và kết thúc kỷ nguyên khai thác card đồ họa quy mô lớn, CoreWeave đã hoàn toàn chuyển đổi thành nhà cung cấp dịch vụ đám mây và đã thông báo vào tháng 11 năm nay rằng nó đã trở thành đợt đầu tiên của các nhà cung cấp sử dụng siêu chip NVIDIA HGX H100.Một trong những nhà cung cấp dịch vụ đám mây.

So với ba gã khổng lồ Amazon, Microsoft và Google, CoreWeave không có kế hoạch phát triển chip AI của riêng mình vốn được Nvidia đánh giá rất cao.

Vào tháng 4 năm 2023, Nvidia tăng cường hợp tác với CoreWeave và ngoài hợp tác kinh doanh, họ còn đầu tư vào vòng cấp vốn B1 trị giá 221 triệu đô la của CoreWeave. Quan trọng nhất, Nvidia đã cung cấp cho CoreWeave một kênh duy nhất dành cho A100 và H100 khan hiếm.

Trong một cuộc phỏng vấn gần đây với Bloomberg, Brannin McBee, đồng sáng lập kiêm giám đốc chiến lược của CoreWeave, cho biết Nvidia đã bán hết chip trong năm nay và các đơn đặt hàng của CoreWeave cũng đã được lên kế hoạch cho quý 2 năm sau.

CoreWeave có lẽ có kho dự trữ GPU Nvidia lớn nhất thế giới. Trong bối cảnh khan hiếm GPU hiện nay, chip thậm chí còn có giá trị hơn cả vốn chủ sở hữu và CoreWeave đã tạo ra một phương thức cấp vốn sáng tạo. Vào tháng 8 năm nay, CoreWeave đã đảm bảo khoản nợ 2,3 tỷ đô la bằng cách thế chấp chip GPU của mình. Trước đây, vòng cấp vốn cổ phần B1 của CoreWeave chỉ nhận được 421 triệu USD.

Với liên minh chiến lược "đám mây + GPU" với Nvidia, hiệu suất của CoreWeave cũng tăng vọt.

Trước năm nay, CoreWeave là một công ty ít được biết đến. Nhưng giờ đây, CoreWeave đã sẵn sàng kiếm hàng tỷ đô la từ nó thông qua GPU của mình. Trong một cuộc phỏng vấn với VentureBeat, đồng sáng lập CoreWeave và giám đốc chiến lược Brannin McBee tiết lộ rằng doanh thu của CoreWeave vào năm 2022 sẽ là 30 triệu đô la Mỹ, sẽ đạt 500 triệu đô la Mỹ trong năm nay và đã ký được các hợp đồng gần 2 tỷ đô la Mỹ vào năm tới.

CoreWeave cũng đã công bố một trung tâm dữ liệu mới trị giá 1,6 tỷ USD ở Texas và có kế hoạch mở rộng lên 14 trung tâm dữ liệu vào cuối năm nay. Hiện tại, ngôi sao AI kỳ lân Inflection đang sử dụng đám mây của CoreWeave để xây dựng cụm GPU gồm khoảng 22.000 chiếc H100. Công ty đã công bố một vòng tài trợ mới trị giá 1,3 tỷ USD vào tháng 7 năm nay. Điều đáng nói là NVIDIA cũng nằm trong số các nhà đầu tư của Inflection.

CoreWeave là công ty điện toán đám mây đầu tiên mà Nvidia đầu tư trong năm nay, nhưng nó không phải là công ty duy nhất.

Theo The Information, Nvidia sắp đạt được thỏa thuận đầu tư với một nhà cung cấp dịch vụ đám mây khác là Lambda Labs, Nvidia có thể đầu tư 300 triệu USD và định giá của Lambda Labs sẽ vượt 1 tỷ USD. Lambda Labs tuyên bố có thể cung cấp tài nguyên sức mạnh điện toán NVIDIA A100 và H100 với mức giá thấp nhất thế giới.

Hiện tại, với việc phân bổ tài nguyên GPU "hợp lý", Nvidia đã trở thành thương nhân trên thị trường điện toán đám mây theo đúng nghĩa, và đã nắm trong tay gã khổng lồ đám mây từ gốc - Microsoft là một trường hợp tốt.

Microsoft đã thêm một yếu tố rủi ro mới vào báo cáo thu nhập gần đây nhất của mình: "Các dịch vụ có thể bị gián đoạn nếu không thể đảm bảo đủ chip trí tuệ nhân tạo cho các trung tâm dữ liệu của mình."

Trước nhu cầu điện toán AI khổng lồ, tải GPU của Microsoft đang bị thiếu hụt, thậm chí hãng này còn phải tìm kiếm sự trợ giúp từ các đối thủ cạnh tranh là các nhà cung cấp đám mây vừa và nhỏ. Theo CNBC, Microsoft "đã đồng ý chi hàng tỷ đô la trong vài năm tới để mua cơ sở hạ tầng điện toán đám mây của công ty khởi nghiệp CoreWeave." Dưới sự kiểm soát của Nvidia, Microsoft đã phải cho phép các nhà cung cấp dịch vụ đám mây vừa và nhỏ như CoreWeave kiếm chênh lệch giá từ GPU.

Bằng cách đầu tư vào các nhà cung cấp dịch vụ đám mây vừa và nhỏ, Nvidia đã đặt chân vào lĩnh vực điện toán đám mây. Mặc dù không có nỗ lực xây dựng cơ sở hạ tầng đám mây và cạnh tranh trực tiếp với những gã khổng lồ về đám mây, nhưng chúng ta sẽ không ngạc nhiên nếu Nvidia trực tiếp tham gia thị trường bằng cách mua lại các nhà cung cấp dịch vụ đám mây vừa và nhỏ trong tương lai.

Bất kể Nvidia cuối cùng có tham gia cuộc chơi hay không, nó đã trở thành người chơi đằng sau hậu trường lớn nhất trên thị trường điện toán đám mây trong làn sóng AI sáng tạo.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)