Thiếu lõi AI, Nvidia cháy hàng

Tác giả: Sun Pengyue Biên tập: Gale

Nguồn: Tài Chính Kẽm

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Vào ngày 8 tháng 8, hội nghị đồ họa máy tính thế giới SIGGRAPH, hội nghị bàn tròn quan trọng nhất trong ngành công nghiệp máy tính toàn cầu, đã chính thức được tổ chức.

Nhà sáng lập kiêm Giám đốc điều hành NVIDIA Jensen Huang đã tham dự và mang theo thế hệ chip siêu AI mới của NVIDIA là GH200. Jensen Huang rất tự tin về sản phẩm chủ lực mới của mình, gọi GH200 là "bộ nhớ nhanh nhất thế giới".

**Trong thị trường AI ngày nay, Nvidia được gọi là "trung tâm điều hành toàn bộ thế giới AI". **Cho dù đó là OpenAI hay Google, META, Baidu, Tencent, Alibaba, tất cả các AI tổng hợp đều phụ thuộc rất nhiều vào chip AI của Nvidia để đào tạo.

Ngoài ra, theo báo cáo của các phương tiện truyền thông, tổng nhu cầu thị trường đối với chip Nvidia AI H100 vào tháng 8 năm 2023 có thể vào khoảng 432.000 chiếc và giá hiện tại của một chip H100 trên Ebay thậm chí đã lên tới 45.000 đô la Mỹ, tương đương hơn 300.000 RMB. nhân dân tệ.

Có hơn 400.000 khoảng trống chip, với đơn giá 45.000 đô la Mỹ và tổng giá có thể dễ dàng lên tới hàng triệu đô la.

Nvidia đang trải qua một làn sóng thị trường điên cuồng hơn cả "kỷ nguyên khai thác".

Chip AI, rất khó tìm

Cái gọi là chip AI thực chất là các đơn vị xử lý đồ họa (GPU), có vai trò chính là giúp chạy vô số phép tính liên quan đến đào tạo và triển khai các thuật toán trí tuệ nhân tạo.

**Có nghĩa là, tất cả các loại hiệu suất thông minh của AI tổng hợp đều đến từ việc xếp chồng vô số GPU. Càng sử dụng nhiều chip, AI sáng tạo càng thông minh hơn. **

OpenAI kín tiếng về chi tiết đào tạo GPT-4, nhưng theo suy đoán của giới truyền thông, GPT-4 cần ít nhất 8192 chip H100, với mức giá 2 đô la mỗi giờ, quá trình đào tạo trước có thể hoàn thành sau khoảng 55 ngày và chi phí khoảng 21,5 triệu USD (150 triệu RMB).

Theo các giám đốc điều hành của Microsoft, siêu máy tính AI cung cấp hỗ trợ sức mạnh tính toán cho ChatGPT là siêu máy tính cấp cao nhất quy mô lớn mà Microsoft đã đầu tư 1 tỷ đô la Mỹ vào năm 2019, được trang bị hàng chục nghìn GPU Nvidia A100 và hơn 60 trung tâm dữ liệu, tổng cộng có hàng trăm nghìn GPU Nvidia được triển khai tại trung tâm.

Chip AI mà ChatGPT yêu cầu không cố định mà tăng dần. ChatGPT càng thông minh thì cái giá đằng sau nó là càng cần nhiều sức mạnh tính toán hơn. Theo dự đoán của Morgan Stanley, GPT-5 sẽ cần sử dụng khoảng 25.000 GPU, tức là gấp khoảng 3 lần so với GPT-4.

**Nếu muốn đáp ứng nhu cầu của hàng loạt sản phẩm AI như OpenAI và Google thì cũng tương đương với việc một công ty của Nvidia cung cấp nhân cho các sản phẩm AI trên toàn thế giới, đó là phép thử lớn cho năng lực sản xuất của Nvidia. **

NVIDIA H100

Mặc dù Nvidia đang sản xuất hết công suất chip AI, nhưng theo báo cáo của các phương tiện truyền thông, công suất cụm H100 quy mô lớn của các nhà cung cấp đám mây lớn và nhỏ sắp cạn kiệt và "vấn đề thiếu hụt trầm trọng" của H100 sẽ tiếp tục ít nhất cho đến khi kết thúc. của năm 2024.

Hiện tại, chip của Nvidia dành cho thị trường AI chủ yếu được chia thành hai loại: H100 và A100. H100 là sản phẩm chủ lực, về chi tiết kỹ thuật, H100 nhanh hơn A100 khoảng 3,5 lần về tốc độ suy luận 16 bit và Tốc độ đào tạo 16 bit nhanh hơn khoảng 2,3 lần.

Dù là H100 hay A100 thì chúng đều do TSMC đồng sản xuất nên việc sản xuất H100 bị hạn chế. Theo một số phương tiện truyền thông, mỗi chiếc H100 đi từ sản xuất đến giao hàng mất khoảng nửa năm và hiệu quả sản xuất rất chậm.

Nvidia từng tuyên bố rằng họ sẽ tăng khả năng cung cấp chip AI vào nửa cuối năm 2023, nhưng không cung cấp bất kỳ thông tin định lượng nào.

Nhiều công ty và người mua đang kêu gọi Nvidia tăng cường sản xuất fabs, không chỉ hợp tác với TSMC mà còn giao thêm đơn đặt hàng cho Samsung và Intel.

** Tốc độ đào tạo nhanh hơn **

**Nếu không có cách nào tăng năng lực sản xuất thì giải pháp tốt nhất là tung ra những con chip hiệu năng cao hơn để thắng bằng chất lượng. **

Do đó, Nvidia bắt đầu thường xuyên tung ra các GPU mới để cải thiện khả năng đào tạo AI. Đầu tiên, vào tháng 3 năm nay, Nvidia đã phát hành bốn chip AI, GPU H100 NVL, GPU L4 Tensor Core, GPU L40 và NVIDIA Grace Hopper, để đáp ứng nhu cầu về sức mạnh tính toán ngày càng tăng của các AI thế hệ mới.

Thế hệ trước chưa được sản xuất đại trà và tung ra thị trường, Nvidia đã ra mắt phiên bản nâng cấp của H100 là GH200 của Huang Renxun tại Hội nghị thế giới về đồ họa máy tính SIGGRAPH vào ngày 8/8.

Được biết, Siêu chip GH200 Grace Hopper mới dựa trên CPU Grace 72 lõi, được trang bị bộ nhớ ECC LPDDR5X 480 GB và GPU điện toán GH100, với bộ nhớ HBM3E 141 GB, sử dụng sáu ngăn xếp 24 GB và sử dụng giao diện bộ nhớ 6144 bit.

NVIDIAGH200

Công nghệ đen lớn nhất của GH200 là con chip đầu tiên trên thế giới được trang bị bộ nhớ HBM3e, nó có thể tăng 50% bộ nhớ GPU cục bộ. Và đây cũng là một “nâng cấp riêng” dành riêng cho thị trường trí tuệ nhân tạo, bởi những AI tạo ra cấp cao nhất thường có kích thước khổng lồ nhưng hạn chế về dung lượng bộ nhớ.

Theo thông tin được công khai, bộ nhớ HBM3e là bộ nhớ băng thông cao thế hệ thứ 5 của SK Hynix, đây là một loại công nghệ bộ nhớ băng thông cao mới có thể cung cấp tốc độ truyền dữ liệu cao hơn trong một không gian nhỏ hơn. Nó có dung lượng 141GB và băng thông 5TB mỗi giây, có thể đạt lần lượt 1,7 lần và 1,55 lần so với H100.

Kể từ khi được phát hành vào tháng 7, SK Hynix đã trở thành con cưng của thị trường GPU, vượt lên trên các đối thủ trực tiếp là chip flash Optane DC của Intel và Z-NAND của Samsung.

Điều đáng nói là SK Hynix luôn là một trong những đối tác của Nvidia, bắt đầu từ bộ nhớ HBM3, hầu hết các sản phẩm của Nvidia đều sử dụng sản phẩm của SK Hynix. Tuy nhiên, SK Hynix đã lo lắng về năng lực sản xuất bộ nhớ cần thiết cho chip AI và Nvidia đã nhiều lần yêu cầu SK Hynix tăng năng lực sản xuất.

Khi một gia đình lớn mắc chứng khó sinh gặp một gia đình lớn khác mắc chứng khó sinh, mọi người không khỏi lo lắng về năng lực sản xuất của GH200.

NVIDIA chính thức tuyên bố rằng so với sản phẩm thế hệ hiện tại H100, GH200 có dung lượng bộ nhớ cao hơn 3,5 lần và băng thông cao hơn 3 lần; đồng thời, bộ nhớ HBM3e sẽ cho phép GH200 thế hệ tiếp theo chạy các mô hình AI nhanh hơn 3,5 lần so với mô hình hiện tại.

**Tốc độ chạy mô hình AI nhanh gấp 3,5 lần H100, nghĩa là 1 GH200 tương đương 3,5 H100? Tất cả mọi thứ phải được học thông qua thực hành. **

Nhưng hiện tại, điều chắc chắn là với tư cách là nhà cung cấp lớn nhất trên thị trường AI, Nvidia đã củng cố hơn nữa vị trí dẫn đầu của mình và nới rộng khoảng cách với AMD và Intel.

Đối thủ NVIDIA

Đối mặt với khoảng cách 430.000 chip AI, không công ty nào là không lay chuyển. Đặc biệt, những đối thủ lớn nhất của Nvidia là AMD và Intel sẽ không để họ độc chiếm toàn bộ thị trường.

Vào ngày 14 tháng 6 năm nay, Chủ tịch kiêm Giám đốc điều hành AMD Su Zifeng đã phát hành mạnh mẽ nhiều loại sản phẩm phần cứng và phần mềm AI mới, bao gồm cả chip AI được thiết kế cho các mô hình ngôn ngữ lớn, MI300X. Chính thức đưa ra lời thách thức tích cực đến Nvidia trên thị trường AI.

Về thông số phần cứng, AMD MI300X có tới 13 chip nhỏ, chứa tổng cộng 146 tỷ bóng bán dẫn và được trang bị bộ nhớ HBM3 128GB. Mật độ HBM của nó gấp 2,4 lần so với Nvidia H100 và băng thông của nó gấp 1,6 lần so với Nvidia H100, điều đó có nghĩa là tốc độ xử lý của AI tổng hợp có thể được tăng tốc.

Nhưng thật không may, con chip AI hàng đầu này không có hàng mà dự kiến sẽ được sản xuất hàng loạt vào quý 4 năm 2023.

Một đối thủ khác là Intel đã mua lại nhà sản xuất chip trí tuệ nhân tạo HABANA Labs với giá khoảng 2 tỷ USD vào năm 2019, tham gia vào thị trường chip AI.

Vào tháng 8 năm nay, trong cuộc gọi thu nhập gần đây nhất của Intel, Giám đốc điều hành Intel Pat Gelsinger cho biết Intel đang phát triển chip siêu máy tính Falcon Shores AI thế hệ tiếp theo, có tên tạm thời là Falcon Shores 2, dự kiến sẽ được phát hành vào năm 2026.

Ngoài Falcon Shores 2, Intel cũng ra mắt chip AI Gaudi2, hiện đã bắt đầu bán ra, trong khi Gaudi3 đang được phát triển.

Chỉ tiếc là thông số chip Gaudi2 không cao, khó có thể thách thức Nvidia H100 và A100.

AMD MI300X

** Bên cạnh việc các ông lớn bán dẫn nước ngoài uốn éo cơ bắp, bắt đầu cuộc “cạnh tranh chip”, các công ty bán dẫn trong nước cũng bắt tay vào nghiên cứu và phát triển chip AI. **

Trong số đó, thẻ tăng tốc AI lõi Kunlun RG800, thẻ tăng tốc Tiangai 100 của Tianshu Zhixin và sản phẩm đào tạo thế hệ thứ hai Yunsui T20/T21 của Suiyuan Technology đều cho thấy rằng chúng có thể hỗ trợ đào tạo mô hình quy mô lớn.

Trong cuộc chiến giành chip sử dụng sức mạnh tính toán làm tiêu chuẩn và AI làm mô hình lớn làm chiến trường, Nvidia, với tư cách là một trong những người chiến thắng lớn nhất trên thị trường AI, đã thể hiện sức mạnh của mình trong thiết kế chip và thị phần.

Tuy nhiên, mặc dù chip AI trong nước hơi chậm nhưng tốc độ nghiên cứu phát triển và mở rộng thị trường chưa bao giờ dừng lại, và tương lai rất đáng để mong đợi.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)