Giám đốc điều hành Nvidia Jensen Huang đã nói như vậy tại một cuộc họp báo vào thứ ba. Hôm qua, Nvidia đã phát hành nền tảng siêu chip GH200 Grace Hopper thế hệ mới, được thiết kế đặc biệt cho kỷ nguyên điện toán tăng tốc và trí tuệ nhân tạo AI.
Huang Renxun đã chỉ ra rằng để đáp ứng nhu cầu ngày càng tăng của AI tổng quát, các trung tâm dữ liệu cần phải có các nền tảng điện toán tăng tốc cho các nhu cầu đặc biệt. Nền tảng chip GH200 mới cung cấp công nghệ bộ nhớ và băng thông vượt trội, khả năng kết nối GPU để đạt được hiệu suất tổng hợp mà không bị giảm và có thiết kế máy chủ có thể dễ dàng triển khai khắp trung tâm dữ liệu. **
Điều đáng nói là sự xuất hiện của làn sóng các mô hình quy mô lớn đã tạo ra nhiều ứng dụng gốc AI khác nhau, dẫn đến nhu cầu về sức mạnh tính toán tăng vọt.Thị trường trung tâm dữ liệu dành riêng cho các ứng dụng trí tuệ nhân tạo chuyên sâu về dữ liệu đang nổi lên nhanh chóng.
Trung tâm dữ liệu mở ra những thay đổi mới
Các nhà phân tích lưu ý rằng khi các nhà cung cấp điện toán đám mây lâu đời chạy đua trang bị thêm cho các trung tâm dữ liệu bằng chip tiên tiến và các nâng cấp khác để đáp ứng nhu cầu của phần mềm trí tuệ nhân tạo, một số nhà xây dựng mới nổi nhìn thấy cơ hội xây dựng cơ sở mới từ đầu.
Một trung tâm dữ liệu tương tự như một nhà kho lớn, được trang bị nhiều giá đỡ máy chủ, mạng và thiết bị lưu trữ để lưu trữ và xử lý dữ liệu. So với các trung tâm dữ liệu truyền thống, trung tâm dữ liệu AI có nhiều máy chủ sử dụng chip hiệu suất cao hơn, do đó mức tiêu thụ điện năng trung bình trên mỗi giá của máy chủ trung tâm dữ liệu AI có thể đạt tới 50 kilowatt trở lên, trong khi mỗi giá của trung tâm dữ liệu truyền thống Mức tiêu thụ điện năng là khoảng 7 kW.
Điều này có nghĩa là trung tâm dữ liệu AI cần xây dựng thêm cơ sở hạ tầng để có thể cung cấp điện năng cao hơn. Vì việc tiêu thụ thêm điện năng sẽ tạo ra nhiều nhiệt hơn nên trung tâm dữ liệu AI cũng cần các phương pháp làm mát khác, chẳng hạn như làm mát bằng chất lỏng hệ thống, để Bảo vệ thiết bị không bị quá nóng.
Manju Naglapur, phó chủ tịch cấp cao của công ty tư vấn và dịch vụ Unisys, lưu ý:
**Các trung tâm dữ liệu AI được xây dựng có mục đích có thể chứa các máy chủ sử dụng chip AI như GPU của Nvidia, cho phép nhiều tính toán chạy đồng thời khi các ứng dụng AI sàng lọc qua các kho dữ liệu khổng lồ. ** Các trung tâm dữ liệu này cũng được trang bị mạng cáp quang và các thiết bị lưu trữ hiệu quả hơn để hỗ trợ các mô hình trí tuệ nhân tạo quy mô lớn.
Các trung tâm dữ liệu AI là những tòa nhà chuyên môn hóa cao, đòi hỏi đầu tư lớn về tiền bạc và thời gian. Theo dữ liệu từ công ty nghiên cứu Data Bridge Market Research, đến năm 2029, chi tiêu cho thị trường cơ sở hạ tầng trí tuệ nhân tạo toàn cầu dự kiến sẽ đạt 422,55 tỷ USD, với tốc độ tăng trưởng kép hàng năm là 44% trong sáu năm tới.
Giám đốc điều hành DataBank Raul Martynek cho biết tốc độ triển khai AI có thể dẫn đến tình trạng thiếu năng lực trung tâm dữ liệu trong 12 đến 24 tháng tới.
Tân binh máy tính AI nhận được 2,3 tỷ USD tài trợ
Hiện tại, nhiều gã khổng lồ đang đặt cược vào các trung tâm dữ liệu AI và "tiêu chuẩn bất động sản" Blackstone đã bán nhà và chuyển sang các trung tâm dữ liệu AI. Meta cũng cho biết họ sẽ xây dựng một trung tâm dữ liệu AI mới.
Như đã đề cập trong bài viết trước, CoreWeave, một tân binh về sức mạnh tính toán AI, đã vay thế chấp từ Nvidia H100 và nhận được khoản nợ trị giá 2,3 tỷ đô la Mỹ (khoảng 16,5 tỷ nhân dân tệ).
**CoreWeave cho biết số tiền này sẽ được sử dụng để đẩy nhanh việc xây dựng các trung tâm dữ liệu trí tuệ nhân tạo, đây là một khoản tài trợ khác sau khi công ty nhận được 221 triệu đô la Mỹ vào tháng 4 năm nay và 200 triệu đô la Mỹ vào tháng 5. Được thành lập cách đây sáu năm, CoreWeave đã có bảy trung tâm dữ liệu AI trực tuyến và dự kiến sẽ tăng gấp đôi con số đó vào cuối năm nay.
CoreWeave đang hợp tác với Nvidia và Inflection AI để xây dựng một cụm máy chủ AI siêu lớn, với mục tiêu chạy 22.000 chiếc Nvidia H100. **Nếu hoàn thành sẽ trở thành cụm máy chủ AI lớn nhất thế giới. **
Điều đáng nói là, theo trang web chính thức của CoreWeave, dịch vụ của họ rẻ hơn 80% so với các nhà cung cấp điện toán đám mây truyền thống. Máy chủ HGX H100 mới nhất của Nvidia, chứa 8 chiếc H100 với bộ nhớ video 80G và bộ nhớ 1T, chỉ có giá khởi điểm 2,23 USD mỗi giờ (16 RMB). **
So với nền tảng thế hệ trước, cấu hình chip kép của nền tảng GH200 Grace Hopper mới giúp tăng dung lượng bộ nhớ lên 3,5 lần và băng thông lên gấp 3. Một máy chủ có 144 lõi hiệu suất cao Arm Neoverse, 8 petaflop hiệu suất AI và công nghệ bộ nhớ HBM3e 282GB mới nhất.
Chẳng trách trong thời đại LLM bùng nổ như hiện nay, Huang Renxun vẫn mạnh dạn nói "mua càng nhiều, tiết kiệm càng nhiều"!
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Tham vọng của Nvidia: "AI bản địa" lật đổ hoàn toàn trung tâm dữ liệu
Nguồn: Tin tức Phố Wall
Tác giả: Triệu Anh
Giám đốc điều hành Nvidia Jensen Huang đã nói như vậy tại một cuộc họp báo vào thứ ba. Hôm qua, Nvidia đã phát hành nền tảng siêu chip GH200 Grace Hopper thế hệ mới, được thiết kế đặc biệt cho kỷ nguyên điện toán tăng tốc và trí tuệ nhân tạo AI.
Huang Renxun đã chỉ ra rằng để đáp ứng nhu cầu ngày càng tăng của AI tổng quát, các trung tâm dữ liệu cần phải có các nền tảng điện toán tăng tốc cho các nhu cầu đặc biệt. Nền tảng chip GH200 mới cung cấp công nghệ bộ nhớ và băng thông vượt trội, khả năng kết nối GPU để đạt được hiệu suất tổng hợp mà không bị giảm và có thiết kế máy chủ có thể dễ dàng triển khai khắp trung tâm dữ liệu. **
Điều đáng nói là sự xuất hiện của làn sóng các mô hình quy mô lớn đã tạo ra nhiều ứng dụng gốc AI khác nhau, dẫn đến nhu cầu về sức mạnh tính toán tăng vọt.Thị trường trung tâm dữ liệu dành riêng cho các ứng dụng trí tuệ nhân tạo chuyên sâu về dữ liệu đang nổi lên nhanh chóng.
Trung tâm dữ liệu mở ra những thay đổi mới
Các nhà phân tích lưu ý rằng khi các nhà cung cấp điện toán đám mây lâu đời chạy đua trang bị thêm cho các trung tâm dữ liệu bằng chip tiên tiến và các nâng cấp khác để đáp ứng nhu cầu của phần mềm trí tuệ nhân tạo, một số nhà xây dựng mới nổi nhìn thấy cơ hội xây dựng cơ sở mới từ đầu.
Một trung tâm dữ liệu tương tự như một nhà kho lớn, được trang bị nhiều giá đỡ máy chủ, mạng và thiết bị lưu trữ để lưu trữ và xử lý dữ liệu. So với các trung tâm dữ liệu truyền thống, trung tâm dữ liệu AI có nhiều máy chủ sử dụng chip hiệu suất cao hơn, do đó mức tiêu thụ điện năng trung bình trên mỗi giá của máy chủ trung tâm dữ liệu AI có thể đạt tới 50 kilowatt trở lên, trong khi mỗi giá của trung tâm dữ liệu truyền thống Mức tiêu thụ điện năng là khoảng 7 kW.
Điều này có nghĩa là trung tâm dữ liệu AI cần xây dựng thêm cơ sở hạ tầng để có thể cung cấp điện năng cao hơn. Vì việc tiêu thụ thêm điện năng sẽ tạo ra nhiều nhiệt hơn nên trung tâm dữ liệu AI cũng cần các phương pháp làm mát khác, chẳng hạn như làm mát bằng chất lỏng hệ thống, để Bảo vệ thiết bị không bị quá nóng.
Manju Naglapur, phó chủ tịch cấp cao của công ty tư vấn và dịch vụ Unisys, lưu ý:
Các trung tâm dữ liệu AI là những tòa nhà chuyên môn hóa cao, đòi hỏi đầu tư lớn về tiền bạc và thời gian. Theo dữ liệu từ công ty nghiên cứu Data Bridge Market Research, đến năm 2029, chi tiêu cho thị trường cơ sở hạ tầng trí tuệ nhân tạo toàn cầu dự kiến sẽ đạt 422,55 tỷ USD, với tốc độ tăng trưởng kép hàng năm là 44% trong sáu năm tới.
Giám đốc điều hành DataBank Raul Martynek cho biết tốc độ triển khai AI có thể dẫn đến tình trạng thiếu năng lực trung tâm dữ liệu trong 12 đến 24 tháng tới.
Tân binh máy tính AI nhận được 2,3 tỷ USD tài trợ
Hiện tại, nhiều gã khổng lồ đang đặt cược vào các trung tâm dữ liệu AI và "tiêu chuẩn bất động sản" Blackstone đã bán nhà và chuyển sang các trung tâm dữ liệu AI. Meta cũng cho biết họ sẽ xây dựng một trung tâm dữ liệu AI mới.
Như đã đề cập trong bài viết trước, CoreWeave, một tân binh về sức mạnh tính toán AI, đã vay thế chấp từ Nvidia H100 và nhận được khoản nợ trị giá 2,3 tỷ đô la Mỹ (khoảng 16,5 tỷ nhân dân tệ).
**CoreWeave cho biết số tiền này sẽ được sử dụng để đẩy nhanh việc xây dựng các trung tâm dữ liệu trí tuệ nhân tạo, đây là một khoản tài trợ khác sau khi công ty nhận được 221 triệu đô la Mỹ vào tháng 4 năm nay và 200 triệu đô la Mỹ vào tháng 5. Được thành lập cách đây sáu năm, CoreWeave đã có bảy trung tâm dữ liệu AI trực tuyến và dự kiến sẽ tăng gấp đôi con số đó vào cuối năm nay.
CoreWeave đang hợp tác với Nvidia và Inflection AI để xây dựng một cụm máy chủ AI siêu lớn, với mục tiêu chạy 22.000 chiếc Nvidia H100. **Nếu hoàn thành sẽ trở thành cụm máy chủ AI lớn nhất thế giới. **
Điều đáng nói là, theo trang web chính thức của CoreWeave, dịch vụ của họ rẻ hơn 80% so với các nhà cung cấp điện toán đám mây truyền thống. Máy chủ HGX H100 mới nhất của Nvidia, chứa 8 chiếc H100 với bộ nhớ video 80G và bộ nhớ 1T, chỉ có giá khởi điểm 2,23 USD mỗi giờ (16 RMB). **
So với nền tảng thế hệ trước, cấu hình chip kép của nền tảng GH200 Grace Hopper mới giúp tăng dung lượng bộ nhớ lên 3,5 lần và băng thông lên gấp 3. Một máy chủ có 144 lõi hiệu suất cao Arm Neoverse, 8 petaflop hiệu suất AI và công nghệ bộ nhớ HBM3e 282GB mới nhất.
Chẳng trách trong thời đại LLM bùng nổ như hiện nay, Huang Renxun vẫn mạnh dạn nói "mua càng nhiều, tiết kiệm càng nhiều"!