Luôn có những tin tức mới về Nvidia để làm bạn ngạc nhiên.
Cái gần đây nhất đến từ CoreWeave, một công ty khởi nghiệp về đám mây ở Mỹ.
Công ty đã công bố khoản tài trợ 2,3 tỷ đô la và điều gây sốc hơn nữa là tài sản thế chấp cho khoản tiền này là GPU mà công ty sở hữu. Dưới sự bùng nổ của các mô hình lớn, GPU đã trở thành một loại tiền tệ mạnh và lý do tại sao CoreWeave có thể có nhiều mặt hàng khan hiếm từ Nvidia là do vị thế trong quá khứ của nó - công cụ khai thác Ethereum lớn nhất ở Bắc Mỹ.
Vào thời điểm đó, nó có hơn 50.000 GPU để khai thác, sau khi đối mặt với tính không bền vững của việc khai thác, CoreWeave đã chuyển sự chú ý sang AI và các lĩnh vực khác cần tính toán song song, đồng thời mua một số lượng lớn chip NVIDIA trước khi ChatGPT trở nên phổ biến— —Lúc đó thời gian, năng lực sản xuất của chip là đủ.
Do đó, CoreWeave tuyên bố là công ty duy nhất trên thế giới có thể cung cấp sức mạnh tính toán H100 trên quy mô lớn và cũng đã chuyển đổi thành "nhà cung cấp đám mây".
Đúng vậy, nguồn cung cấp GPU của nó vượt qua tất cả những người khổng lồ về dịch vụ đám mây, bao gồm Google Cloud, Amazon Cloud và Microsoft's Azure.
Điều này nghe có vẻ lạ, ngay cả khi không có nút cổ chai về số lượng GPU, việc xây dựng một trung tâm dữ liệu vẫn đòi hỏi chi phí rất lớn, không gian tinh tế, thiết kế tản nhiệt và năng lượng cũng như sự hợp tác giữa phần mềm và phần cứng rất phức tạp. điều kiện Đó có thể là một gã khổng lồ chứ không phải một công ty khởi nghiệp vừa huy động được vòng Series B (421 triệu USD).
Khả năng thực hiện điều này của CoreWeave bắt nguồn từ cách hiểu rất khác về trung tâm dữ liệu.
Các trung tâm dữ liệu truyền thống được tạo thành từ các CPU, tập trung vào khả năng tính toán cho mục đích chung, trước tiên là các chip của Intel và sau đó là AMD.
Tuy nhiên, trung tâm dữ liệu hoàn toàn mới dành cho điện toán tăng tốc chú trọng nhiều hơn vào điện toán song song, nghĩa là nó cần bộ nhớ, băng thông lớn hơn và khả năng kết nối chặt chẽ tất cả các đơn vị điện toán tăng tốc. "hiện đại hóa trung tâm dữ liệu", mà ông coi là chu kỳ 10 năm.
Sự khởi đầu của chu kỳ mới này báo trước việc xây dựng toàn bộ trung tâm dữ liệu, phối hợp phần mềm và phần cứng, thậm chí cả cấu trúc cung cấp điện và làm mát cũng cần được thiết kế lại. Điều này gần như đã đưa tất cả các nhà cung cấp dịch vụ đám mây trở lại vạch xuất phát - thế hệ giải pháp trung tâm dữ liệu trước đây được thiết kế cho CPU hầu như không thể sao chép được. Ví dụ: công nghệ Infinite Band được Nvidia sử dụng để kết nối các cụm GPU khổng lồ đòi hỏi hơn 500 dặm dây cáp, điều đơn giản là không tồn tại trong các thiết kế trung tâm dữ liệu truyền thống.
CoreWeave đưa ra một ví dụ khác, với cùng kích thước mặt bằng, các cụm GPU cần điện năng gấp 4 lần so với trung tâm dữ liệu truyền thống, do đó, hệ thống điện và hệ thống làm mát của trung tâm dữ liệu mới cần được thiết kế lại hoàn toàn, thậm chí còn không được coi là sự phối hợp của phần cứng và phần mềm.chi phí.
CoreWeave, đón đầu cơ hội, không chỉ có thể cung cấp sức mạnh tính toán H100 khổng lồ mà còn nhanh hơn hàng chục lần so với các dịch vụ đám mây khác, đồng thời chi phí thấp hơn 80%. tầm nhìn của trung tâm dữ liệu - trung tâm dữ liệu đang chuyển đổi theo hướng điện toán tăng tốc và sức mạnh tính toán khan hiếm được cung cấp qua đám mây.
Bằng cách này, một công ty khai thác tiền ảo đã trở thành một công ty điện toán đám mây nổi tiếng, chỉ vì nó là đệ tử trung thành nhất của Nvidia.
Nvidia Cloud là loại đám mây nào
Ai có GPU Nvidia là nhà cung cấp đám mây phổ biến nhất, vậy ai có nhiều GPU Nvidia nhất? Rõ ràng nó là chính nó.
Vì vậy, trong khi hỗ trợ các công ty khởi nghiệp trên nền tảng đám mây tương tự, Nvidia cũng đang xây dựng đám mây của riêng mình.
Nvidia có nhiều lợi thế khi tự làm đám mây, điều rõ ràng nhất là hãng không gặp rắc rối với mối quan hệ giữa cung và cầu GPU. Musk đã từng nói trước công chúng rằng kiếm được GPU khó hơn nhiều so với kiếm được thuốc và lý do tại sao CoreWeave có thể cung cấp sức mạnh tính toán H100 quy mô cực lớn cũng được báo cáo là có liên quan đến việc cung cấp đủ Nvidia - Nvidia đã tham gia vào CoreWeave một vài vài tháng trước B vòng tài chính.
Nhưng rõ ràng, chỉ đầu tư vào một số công ty mới thành lập là không đủ, và nhu cầu khổng lồ về sức mạnh tính toán của AI tổng thể cuối cùng sẽ để Nvidia tự kết thúc. Tại hội nghị GTC vào tháng 3 năm nay, Nvidia đã ra mắt dịch vụ đám mây DGX Cloud của riêng mình, dịch vụ này đã chính thức ra mắt vào giữa năm.
Có thể thấy ngay từ cái tên, DGX Cloud sử dụng trực tiếp các khả năng của siêu máy tính DGX của Nvidia và mỗi phiên bản của đám mây được trang bị 8 GPU H100 hoặc A100 và 640GB bộ nhớ.
DGX Cloud áp dụng cấu trúc có độ trễ thấp cho phép quy trình công việc lớn được mở rộng trên các cụm và phân phối song song trên nhiều nút điện toán. Ví dụ: Oracle, lần đầu tiên công bố hợp tác với DGX Cloud, có thể triển khai hơn 30.000 GPU A100 trên mỗi cụm trên OCI Supercluster, để các mô hình lớn có thể được đào tạo trên đám mây. Người dùng có thể tự do truy cập vào siêu máy tính AI của mình ở bất cứ đâu (Nvidia nói rằng việc phân phối sức mạnh tính toán là độc quyền) và chỉ giao diện người dùng được sử dụng để xử lý chúng. Ngoại trừ quá trình phát triển, không cần phải lo lắng về bất kỳ vấn đề liên quan đến cơ sở hạ tầng phần cứng. .
Dịch vụ này được cung cấp hàng tháng với giá gần 40.000 USD. Tất nhiên, nó vẫn rẻ hơn nhiều so với việc mua trực tiếp một máy chủ DGX với giá 200.000 đô la Mỹ, nhưng nhiều người đã chỉ ra rằng Azure của Microsoft tính phí chưa đến 20.000 đô la Mỹ cho cùng 8 A100GPU, gần bằng một nửa so với trước đây.
Tại sao nó quá đắt? Bởi vì dịch vụ đám mây của Nvidia khác với các dịch vụ khác, nó không chỉ bao gồm sức mạnh tính toán mà còn bao gồm một bộ giải pháp AI hoàn chỉnh.
Hai dịch vụ có tên Base Command Platform và AI Enterprise được tích hợp vào DGX Cloud. Cái trước là một phần mềm quản lý và giám sát, không chỉ có thể được sử dụng để ghi lại tải đào tạo về sức mạnh điện toán đám mây, cung cấp tích hợp sức mạnh điện toán đám mây và đám mây cục bộ mà còn cho phép người dùng truy cập trực tiếp DGX Cloud từ trình duyệt. Lớp thứ hai là lớp phần mềm trong nền tảng AI của Nvidia. Hàng nghìn gói phần mềm cung cấp nhiều mô hình được đào tạo trước, khung AI và thư viện tăng tốc, nhờ đó đơn giản hóa chi phí triển khai và phát triển AI từ đầu đến cuối. Ngoài ra, DGX Cloud cũng cung cấp dịch vụ đúc mô hình có tên là Nền tảng AI, cho phép người dùng doanh nghiệp sử dụng dữ liệu độc quyền của riêng họ để tùy chỉnh các mô hình lớn theo chiều dọc của riêng họ.
Giải pháp hoàn chỉnh này kết hợp giữa phần mềm và phần cứng giúp tốc độ đào tạo của DGX Cloud cao gấp hai đến ba lần so với điện toán đám mây truyền thống, đây là điểm khác biệt lớn nhất giữa DGX Cloud và các dịch vụ đám mây truyền thống, nó tích hợp rất tốt hai khía cạnh của NVIDIA. Điểm mạnh: Hệ sinh thái AI và sức mạnh tính toán. Đối với Nvidia, cụm từ "phần mềm dưới dạng dịch vụ" dường như được thay đổi thành "tích hợp phần mềm và phần cứng dưới dạng dịch vụ".
Tham vọng và hiện thực của Huang Renxun
Nhưng điều này không có nghĩa là Nvidia đã lật đổ hoàn toàn các nhà cung cấp đám mây truyền thống. Dịch vụ của nó được cung cấp thông qua các nhà cung cấp đám mây truyền thống. DGX Cloud ban đầu được thông báo sẽ ra mắt trên Oracle Cloud, tiếp theo là Microsoft và Google, và cách Nvidia làm việc với các nhà cung cấp đám mây này khá thú vị: Đầu tiên, Nvidia bán phần cứng GPU cho các đối tác đám mây này, sau đó cho thuê phần cứng để chạy Đám mây DGX.
Có người đùa rằng đây gọi là kiếm tiền hai bên không chậm trễ.
Trên thực tế, Jensen Huang đã giải thích mô hình này: "Chúng tôi được hưởng lợi từ việc khách hàng sử dụng nền tảng điện toán của chúng tôi và khách hàng được hưởng lợi bằng cách đưa chúng tôi (nền tảng điện toán) vào đám mây (của nhà cung cấp đám mây) của họ."
Nếu bạn chỉ nghe những gì Huang Renxun nói, đây là một kết thúc có hậu đôi bên cùng có lợi, nhưng đây chỉ là câu chuyện nhất quán của anh ấy. Nvidia đã sẵn sàng cạnh tranh với chính khách hàng của mình và họ biết điều đó.
Tiến độ của DGX Cloud cho chúng ta biết rằng Huang Renxun không có ý định chỉ triển khai nó trên các nhà cung cấp đám mây truyền thống. Tại SIGGRAPH 2023 vào tháng 8, Nvidia lần đầu tiên công bố hợp tác với Hugging Face, sau đó cho ra mắt dịch vụ có tên AI Workbench. Tất cả chúng đều cho phép người dùng dễ dàng tạo, thử nghiệm và tùy chỉnh các mô hình tiền đào tạo lớn và hỗ trợ sức mạnh điện toán đằng sau chúng đương nhiên bao gồm DGX Cloud.
Điều này rõ ràng sẽ tác động đến mối quan hệ giữa Nvidia và các nhà cung cấp đám mây: các nhà cung cấp dịch vụ đám mây quan trọng nhất, bao gồm Google, Amazon và Microsoft, cũng là những khách hàng lớn của Nvidia và việc Nvidia quảng cáo các dịch vụ đám mây của riêng mình chắc chắn sẽ giành lấy thị phần của họ. Đặc biệt, chúng ta đã đề cập ở phần đầu rằng, với tư cách là những gã khổng lồ về trung tâm dữ liệu và dịch vụ đám mây, họ không có nhiều lợi thế trong việc xây dựng thế hệ trung tâm dữ liệu tiếp theo và mối đe dọa từ dịch vụ đám mây của chính họ cũng không nhỏ.
Huang Renxun sẽ không phải là không biết điều này, vì vậy thái độ của anh ấy đối với DGX Cloud khá thú vị, chẳng hạn như anh ấy đã công khai tuyên bố rằng tỷ lệ kết hợp dịch vụ đám mây phù hợp phải là 10% Nvidia DGX cộng với 90% đám mây công cộng. Nói cách khác, theo định vị của Huang Renxun, DGX Cloud không phải là đối thủ hay mối đe dọa đối với các nhà cung cấp đám mây truyền thống, mà là một đối tác.
Trong cuộc gọi hội nghị của nhà phân tích sau khi công bố báo cáo tài chính quý 1, Huang Renxun đã nói nhiều hơn về lợi ích của sự hợp tác này, "một tình huống đôi bên cùng có lợi", Huang Renxun đã mô tả nó theo cách này. Theo cách hiểu của anh ấy, DGX Cloud là một ngăn xếp Nvidia thuần túy (ngăn xếp Nvidia thuần túy), kết hợp sự phát triển trí tuệ nhân tạo, cơ sở dữ liệu lớn và mạng tốc độ cao và độ trễ thấp để trở thành cơ sở hạ tầng AI thuận tiện nhằm mở ra thị trường mới, khổng lồ - những người tham gia vào thị trường này bao gồm Nvidia và các nhà cung cấp đám mây truyền thống, và tất cả mọi người sẽ được hưởng lợi từ sự bùng nổ của AI tổng hợp.
Việc cố gắng tránh xung đột thực chất là vì DGX Cloud chỉ có thể duy trì một khối lượng nhỏ trong một thời gian dài.
Lý do đầu tiên tất nhiên là nút cổ chai của sức mạnh tính toán. "Đơn đặt hàng cực kỳ nhiều" là mô tả của Huang Renxun về khối lượng kinh doanh của trung tâm dữ liệu. Tất nhiên, ưu tiên cốt lõi của Nvidia là phát triển và đảm bảo sản xuất càng nhiều chip tiên tiến đáp ứng nhu cầu thị trường càng tốt, nếu không thì quy mô của dịch vụ đám mây sẽ không thể được mở rộng.
Mặc dù TSMC đang trong quá trình sản xuất không ngừng, nhưng điều đáng chú ý là khoảng cách về sức mạnh tính toán không ngày càng nhỏ lại mà còn lớn hơn, bởi vì một khi mô hình lớn được tung ra và thương mại hóa (chẳng hạn như ChatGPT), chi phí lý luận của nó sẽ tăng theo cấp số nhân với quy mô người dùng Khi cấp độ tăng lên, về lâu dài, nó sẽ lớn hơn nhiều so với sức mạnh tính toán cần thiết để huấn luyện mô hình (độ phóng đại do ai đó đưa ra là 100).
Ngoài ra, nó cũng tính đến sự phức tạp trong quan hệ đối tác giữa Nvidia và các nhà cung cấp đám mây truyền thống. Nếu DGX Cloud xuất hiện như một sản phẩm cạnh tranh thuần túy, thì nó có thể chiếm một thị phần đáng kể, nhưng nó nhất định sẽ đẩy nhanh hơn nữa các nhà sản xuất đám mây để thoát khỏi sự phụ thuộc vào Nvidia - họ đã phát triển chip của riêng mình để giảm "sự phụ thuộc của NVIDIA". thuế". lên.
Từ một góc độ khác, việc mở rộng hoàn toàn quy mô của DGX Cloud có thể không phải là lợi ích tốt nhất của Nvidia. Từ chip đến card đồ họa trò chơi cho đến máy chủ và trung tâm dữ liệu, Nvidia hiếm khi tự sản xuất các sản phẩm phần cứng mà thích hợp tác với các nhà sản xuất OEM - nhiều đến mức bạn vẫn phải thông qua các nhà sản xuất OEM để mua chip Nvidia. Điều này cho phép Nvidia kiểm soát tốt chi phí và duy trì tỷ suất lợi nhuận.
Ngày nay, Nvidia và các nhà cung cấp đám mây dường như duy trì sự cân bằng, nhưng sự cân bằng này đã bị phá vỡ, đặc biệt khi một bên là Nvidia, xét cho cùng, đây là năm đầu tiên trong chu kỳ cập nhật của cái gọi là “mười năm tới” của Huang Renxun -thế hệ trung tâm dữ liệu”. .
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Nvidia đang hừng hực khí thế liệu có phải là mục tiêu tiếp theo để đánh cắp hoạt động kinh doanh của các nhà cung cấp dịch vụ đám mây?
Ai có GPU Nvidia là công ty điện toán đám mây
Luôn có những tin tức mới về Nvidia để làm bạn ngạc nhiên.
Cái gần đây nhất đến từ CoreWeave, một công ty khởi nghiệp về đám mây ở Mỹ.
Công ty đã công bố khoản tài trợ 2,3 tỷ đô la và điều gây sốc hơn nữa là tài sản thế chấp cho khoản tiền này là GPU mà công ty sở hữu. Dưới sự bùng nổ của các mô hình lớn, GPU đã trở thành một loại tiền tệ mạnh và lý do tại sao CoreWeave có thể có nhiều mặt hàng khan hiếm từ Nvidia là do vị thế trong quá khứ của nó - công cụ khai thác Ethereum lớn nhất ở Bắc Mỹ.
Vào thời điểm đó, nó có hơn 50.000 GPU để khai thác, sau khi đối mặt với tính không bền vững của việc khai thác, CoreWeave đã chuyển sự chú ý sang AI và các lĩnh vực khác cần tính toán song song, đồng thời mua một số lượng lớn chip NVIDIA trước khi ChatGPT trở nên phổ biến— —Lúc đó thời gian, năng lực sản xuất của chip là đủ.
Do đó, CoreWeave tuyên bố là công ty duy nhất trên thế giới có thể cung cấp sức mạnh tính toán H100 trên quy mô lớn và cũng đã chuyển đổi thành "nhà cung cấp đám mây".
Điều này nghe có vẻ lạ, ngay cả khi không có nút cổ chai về số lượng GPU, việc xây dựng một trung tâm dữ liệu vẫn đòi hỏi chi phí rất lớn, không gian tinh tế, thiết kế tản nhiệt và năng lượng cũng như sự hợp tác giữa phần mềm và phần cứng rất phức tạp. điều kiện Đó có thể là một gã khổng lồ chứ không phải một công ty khởi nghiệp vừa huy động được vòng Series B (421 triệu USD).
Khả năng thực hiện điều này của CoreWeave bắt nguồn từ cách hiểu rất khác về trung tâm dữ liệu.
Các trung tâm dữ liệu truyền thống được tạo thành từ các CPU, tập trung vào khả năng tính toán cho mục đích chung, trước tiên là các chip của Intel và sau đó là AMD.
Tuy nhiên, trung tâm dữ liệu hoàn toàn mới dành cho điện toán tăng tốc chú trọng nhiều hơn vào điện toán song song, nghĩa là nó cần bộ nhớ, băng thông lớn hơn và khả năng kết nối chặt chẽ tất cả các đơn vị điện toán tăng tốc. "hiện đại hóa trung tâm dữ liệu", mà ông coi là chu kỳ 10 năm.
Sự khởi đầu của chu kỳ mới này báo trước việc xây dựng toàn bộ trung tâm dữ liệu, phối hợp phần mềm và phần cứng, thậm chí cả cấu trúc cung cấp điện và làm mát cũng cần được thiết kế lại. Điều này gần như đã đưa tất cả các nhà cung cấp dịch vụ đám mây trở lại vạch xuất phát - thế hệ giải pháp trung tâm dữ liệu trước đây được thiết kế cho CPU hầu như không thể sao chép được. Ví dụ: công nghệ Infinite Band được Nvidia sử dụng để kết nối các cụm GPU khổng lồ đòi hỏi hơn 500 dặm dây cáp, điều đơn giản là không tồn tại trong các thiết kế trung tâm dữ liệu truyền thống.
CoreWeave đưa ra một ví dụ khác, với cùng kích thước mặt bằng, các cụm GPU cần điện năng gấp 4 lần so với trung tâm dữ liệu truyền thống, do đó, hệ thống điện và hệ thống làm mát của trung tâm dữ liệu mới cần được thiết kế lại hoàn toàn, thậm chí còn không được coi là sự phối hợp của phần cứng và phần mềm.chi phí.
CoreWeave, đón đầu cơ hội, không chỉ có thể cung cấp sức mạnh tính toán H100 khổng lồ mà còn nhanh hơn hàng chục lần so với các dịch vụ đám mây khác, đồng thời chi phí thấp hơn 80%. tầm nhìn của trung tâm dữ liệu - trung tâm dữ liệu đang chuyển đổi theo hướng điện toán tăng tốc và sức mạnh tính toán khan hiếm được cung cấp qua đám mây.
Bằng cách này, một công ty khai thác tiền ảo đã trở thành một công ty điện toán đám mây nổi tiếng, chỉ vì nó là đệ tử trung thành nhất của Nvidia.
Nvidia Cloud là loại đám mây nào
Ai có GPU Nvidia là nhà cung cấp đám mây phổ biến nhất, vậy ai có nhiều GPU Nvidia nhất? Rõ ràng nó là chính nó.
Vì vậy, trong khi hỗ trợ các công ty khởi nghiệp trên nền tảng đám mây tương tự, Nvidia cũng đang xây dựng đám mây của riêng mình.
Nvidia có nhiều lợi thế khi tự làm đám mây, điều rõ ràng nhất là hãng không gặp rắc rối với mối quan hệ giữa cung và cầu GPU. Musk đã từng nói trước công chúng rằng kiếm được GPU khó hơn nhiều so với kiếm được thuốc và lý do tại sao CoreWeave có thể cung cấp sức mạnh tính toán H100 quy mô cực lớn cũng được báo cáo là có liên quan đến việc cung cấp đủ Nvidia - Nvidia đã tham gia vào CoreWeave một vài vài tháng trước B vòng tài chính.
Nhưng rõ ràng, chỉ đầu tư vào một số công ty mới thành lập là không đủ, và nhu cầu khổng lồ về sức mạnh tính toán của AI tổng thể cuối cùng sẽ để Nvidia tự kết thúc. Tại hội nghị GTC vào tháng 3 năm nay, Nvidia đã ra mắt dịch vụ đám mây DGX Cloud của riêng mình, dịch vụ này đã chính thức ra mắt vào giữa năm.
Có thể thấy ngay từ cái tên, DGX Cloud sử dụng trực tiếp các khả năng của siêu máy tính DGX của Nvidia và mỗi phiên bản của đám mây được trang bị 8 GPU H100 hoặc A100 và 640GB bộ nhớ.
DGX Cloud áp dụng cấu trúc có độ trễ thấp cho phép quy trình công việc lớn được mở rộng trên các cụm và phân phối song song trên nhiều nút điện toán. Ví dụ: Oracle, lần đầu tiên công bố hợp tác với DGX Cloud, có thể triển khai hơn 30.000 GPU A100 trên mỗi cụm trên OCI Supercluster, để các mô hình lớn có thể được đào tạo trên đám mây. Người dùng có thể tự do truy cập vào siêu máy tính AI của mình ở bất cứ đâu (Nvidia nói rằng việc phân phối sức mạnh tính toán là độc quyền) và chỉ giao diện người dùng được sử dụng để xử lý chúng. Ngoại trừ quá trình phát triển, không cần phải lo lắng về bất kỳ vấn đề liên quan đến cơ sở hạ tầng phần cứng. .
Dịch vụ này được cung cấp hàng tháng với giá gần 40.000 USD. Tất nhiên, nó vẫn rẻ hơn nhiều so với việc mua trực tiếp một máy chủ DGX với giá 200.000 đô la Mỹ, nhưng nhiều người đã chỉ ra rằng Azure của Microsoft tính phí chưa đến 20.000 đô la Mỹ cho cùng 8 A100GPU, gần bằng một nửa so với trước đây.
Tại sao nó quá đắt? Bởi vì dịch vụ đám mây của Nvidia khác với các dịch vụ khác, nó không chỉ bao gồm sức mạnh tính toán mà còn bao gồm một bộ giải pháp AI hoàn chỉnh.
Hai dịch vụ có tên Base Command Platform và AI Enterprise được tích hợp vào DGX Cloud. Cái trước là một phần mềm quản lý và giám sát, không chỉ có thể được sử dụng để ghi lại tải đào tạo về sức mạnh điện toán đám mây, cung cấp tích hợp sức mạnh điện toán đám mây và đám mây cục bộ mà còn cho phép người dùng truy cập trực tiếp DGX Cloud từ trình duyệt. Lớp thứ hai là lớp phần mềm trong nền tảng AI của Nvidia. Hàng nghìn gói phần mềm cung cấp nhiều mô hình được đào tạo trước, khung AI và thư viện tăng tốc, nhờ đó đơn giản hóa chi phí triển khai và phát triển AI từ đầu đến cuối. Ngoài ra, DGX Cloud cũng cung cấp dịch vụ đúc mô hình có tên là Nền tảng AI, cho phép người dùng doanh nghiệp sử dụng dữ liệu độc quyền của riêng họ để tùy chỉnh các mô hình lớn theo chiều dọc của riêng họ.
Giải pháp hoàn chỉnh này kết hợp giữa phần mềm và phần cứng giúp tốc độ đào tạo của DGX Cloud cao gấp hai đến ba lần so với điện toán đám mây truyền thống, đây là điểm khác biệt lớn nhất giữa DGX Cloud và các dịch vụ đám mây truyền thống, nó tích hợp rất tốt hai khía cạnh của NVIDIA. Điểm mạnh: Hệ sinh thái AI và sức mạnh tính toán. Đối với Nvidia, cụm từ "phần mềm dưới dạng dịch vụ" dường như được thay đổi thành "tích hợp phần mềm và phần cứng dưới dạng dịch vụ".
Tham vọng và hiện thực của Huang Renxun
Nhưng điều này không có nghĩa là Nvidia đã lật đổ hoàn toàn các nhà cung cấp đám mây truyền thống. Dịch vụ của nó được cung cấp thông qua các nhà cung cấp đám mây truyền thống. DGX Cloud ban đầu được thông báo sẽ ra mắt trên Oracle Cloud, tiếp theo là Microsoft và Google, và cách Nvidia làm việc với các nhà cung cấp đám mây này khá thú vị: Đầu tiên, Nvidia bán phần cứng GPU cho các đối tác đám mây này, sau đó cho thuê phần cứng để chạy Đám mây DGX.
Có người đùa rằng đây gọi là kiếm tiền hai bên không chậm trễ.
Trên thực tế, Jensen Huang đã giải thích mô hình này: "Chúng tôi được hưởng lợi từ việc khách hàng sử dụng nền tảng điện toán của chúng tôi và khách hàng được hưởng lợi bằng cách đưa chúng tôi (nền tảng điện toán) vào đám mây (của nhà cung cấp đám mây) của họ."
Nếu bạn chỉ nghe những gì Huang Renxun nói, đây là một kết thúc có hậu đôi bên cùng có lợi, nhưng đây chỉ là câu chuyện nhất quán của anh ấy. Nvidia đã sẵn sàng cạnh tranh với chính khách hàng của mình và họ biết điều đó.
Tiến độ của DGX Cloud cho chúng ta biết rằng Huang Renxun không có ý định chỉ triển khai nó trên các nhà cung cấp đám mây truyền thống. Tại SIGGRAPH 2023 vào tháng 8, Nvidia lần đầu tiên công bố hợp tác với Hugging Face, sau đó cho ra mắt dịch vụ có tên AI Workbench. Tất cả chúng đều cho phép người dùng dễ dàng tạo, thử nghiệm và tùy chỉnh các mô hình tiền đào tạo lớn và hỗ trợ sức mạnh điện toán đằng sau chúng đương nhiên bao gồm DGX Cloud.
Điều này rõ ràng sẽ tác động đến mối quan hệ giữa Nvidia và các nhà cung cấp đám mây: các nhà cung cấp dịch vụ đám mây quan trọng nhất, bao gồm Google, Amazon và Microsoft, cũng là những khách hàng lớn của Nvidia và việc Nvidia quảng cáo các dịch vụ đám mây của riêng mình chắc chắn sẽ giành lấy thị phần của họ. Đặc biệt, chúng ta đã đề cập ở phần đầu rằng, với tư cách là những gã khổng lồ về trung tâm dữ liệu và dịch vụ đám mây, họ không có nhiều lợi thế trong việc xây dựng thế hệ trung tâm dữ liệu tiếp theo và mối đe dọa từ dịch vụ đám mây của chính họ cũng không nhỏ.
Huang Renxun sẽ không phải là không biết điều này, vì vậy thái độ của anh ấy đối với DGX Cloud khá thú vị, chẳng hạn như anh ấy đã công khai tuyên bố rằng tỷ lệ kết hợp dịch vụ đám mây phù hợp phải là 10% Nvidia DGX cộng với 90% đám mây công cộng. Nói cách khác, theo định vị của Huang Renxun, DGX Cloud không phải là đối thủ hay mối đe dọa đối với các nhà cung cấp đám mây truyền thống, mà là một đối tác.
Trong cuộc gọi hội nghị của nhà phân tích sau khi công bố báo cáo tài chính quý 1, Huang Renxun đã nói nhiều hơn về lợi ích của sự hợp tác này, "một tình huống đôi bên cùng có lợi", Huang Renxun đã mô tả nó theo cách này. Theo cách hiểu của anh ấy, DGX Cloud là một ngăn xếp Nvidia thuần túy (ngăn xếp Nvidia thuần túy), kết hợp sự phát triển trí tuệ nhân tạo, cơ sở dữ liệu lớn và mạng tốc độ cao và độ trễ thấp để trở thành cơ sở hạ tầng AI thuận tiện nhằm mở ra thị trường mới, khổng lồ - những người tham gia vào thị trường này bao gồm Nvidia và các nhà cung cấp đám mây truyền thống, và tất cả mọi người sẽ được hưởng lợi từ sự bùng nổ của AI tổng hợp.
Việc cố gắng tránh xung đột thực chất là vì DGX Cloud chỉ có thể duy trì một khối lượng nhỏ trong một thời gian dài.
Lý do đầu tiên tất nhiên là nút cổ chai của sức mạnh tính toán. "Đơn đặt hàng cực kỳ nhiều" là mô tả của Huang Renxun về khối lượng kinh doanh của trung tâm dữ liệu. Tất nhiên, ưu tiên cốt lõi của Nvidia là phát triển và đảm bảo sản xuất càng nhiều chip tiên tiến đáp ứng nhu cầu thị trường càng tốt, nếu không thì quy mô của dịch vụ đám mây sẽ không thể được mở rộng.
Mặc dù TSMC đang trong quá trình sản xuất không ngừng, nhưng điều đáng chú ý là khoảng cách về sức mạnh tính toán không ngày càng nhỏ lại mà còn lớn hơn, bởi vì một khi mô hình lớn được tung ra và thương mại hóa (chẳng hạn như ChatGPT), chi phí lý luận của nó sẽ tăng theo cấp số nhân với quy mô người dùng Khi cấp độ tăng lên, về lâu dài, nó sẽ lớn hơn nhiều so với sức mạnh tính toán cần thiết để huấn luyện mô hình (độ phóng đại do ai đó đưa ra là 100).
Ngoài ra, nó cũng tính đến sự phức tạp trong quan hệ đối tác giữa Nvidia và các nhà cung cấp đám mây truyền thống. Nếu DGX Cloud xuất hiện như một sản phẩm cạnh tranh thuần túy, thì nó có thể chiếm một thị phần đáng kể, nhưng nó nhất định sẽ đẩy nhanh hơn nữa các nhà sản xuất đám mây để thoát khỏi sự phụ thuộc vào Nvidia - họ đã phát triển chip của riêng mình để giảm "sự phụ thuộc của NVIDIA". thuế". lên.
Từ một góc độ khác, việc mở rộng hoàn toàn quy mô của DGX Cloud có thể không phải là lợi ích tốt nhất của Nvidia. Từ chip đến card đồ họa trò chơi cho đến máy chủ và trung tâm dữ liệu, Nvidia hiếm khi tự sản xuất các sản phẩm phần cứng mà thích hợp tác với các nhà sản xuất OEM - nhiều đến mức bạn vẫn phải thông qua các nhà sản xuất OEM để mua chip Nvidia. Điều này cho phép Nvidia kiểm soát tốt chi phí và duy trì tỷ suất lợi nhuận.
Ngày nay, Nvidia và các nhà cung cấp đám mây dường như duy trì sự cân bằng, nhưng sự cân bằng này đã bị phá vỡ, đặc biệt khi một bên là Nvidia, xét cho cùng, đây là năm đầu tiên trong chu kỳ cập nhật của cái gọi là “mười năm tới” của Huang Renxun -thế hệ trung tâm dữ liệu”. .