* "Những thứ cốt lõi là nặng nề" Kế hoạch nghiên cứu ngành công nghiệp bán dẫn của Tencent Technology, vấn đề này của Core Tide IC và Tencent Technology, tập trung vào đằng sau sự bùng nổ của các mô hình lớn, sự hình thành một mô hình mới trong thị trường điện toán chip toàn cầu, bố cục của các công ty hàng đầu và sự tăng trưởng của các nhà sản xuất trong nước đuổi theo. *
Làn sóng cách mạng AI vô tình được kích hoạt bởi ChatGPT một lần nữa đốt cháy thị trường chip AI.
"Những con chip như A800 và H800 đã thay đổi từ khoảng 120.000 RMB lên 250.000 hoặc thậm chí 300.000, thậm chí cao tới 500.000." Đây là một cảnh có thật trong vòng phân phối chip trong nước. số lượng, và họ phải có "mối quan hệ trực tiếp" với Huang Renxun.
Vì cái gọi là "không có chip, không có AI", khi nhu cầu về sức mạnh tính toán của các mô hình lớn tăng vọt, chip, vốn là nền tảng của công nghệ AI, mở ra những cơ hội kinh doanh quan trọng. OpenAI từng dự đoán rằng để tạo ra những bước đột phá trong nghiên cứu khoa học trí tuệ nhân tạo, tài nguyên máy tính cần tiêu thụ sẽ tăng gấp đôi sau mỗi 3 đến 4 tháng và kinh phí cũng cần phải phù hợp với tốc độ tăng trưởng theo cấp số nhân "Định luật Moore".
Giám đốc tài chính Nvidia Kress cho biết nhu cầu thị trường hiện tại về sức mạnh tính toán AI đã vượt quá mong đợi của công ty trong vài quý tới và có quá nhiều đơn đặt hàng cần thực hiện.
Làn sóng AI sáng tạo đã giúp Nvidia kiếm được rất nhiều tiền. Sau 14 năm niêm yết, Nvidia đã thành công bước vào câu lạc bộ vốn hóa nghìn tỷ USD, để đạt được mục tiêu này, các ông lớn ở Thung lũng Silicon như Apple mất 37 năm, Microsoft mất 33 năm, Amazon mất 21 năm và Tesla chạy nhanh nhất. chỉ mất 11 năm.
Điều này cũng đã kích thích các công ty chip Trung Quốc háo hức thử sức, các công ty chip trong nước như Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin, v.v. dựa vào nghiên cứu của chính họ. Một số nhà sản xuất lớn cũng đã bắt đầu sử dụng chip AI tự phát triển để hỗ trợ một phần nhiệm vụ đào tạo hay suy luận của mô hình, chẳng hạn như chip Baidu Kunlun, Ali Hanguang 800...
Đối mặt với thị trường nghìn tỷ đô la do sức mạnh tính toán AI mang lại, liệu các công ty trong nước có thể tận hưởng làn sóng cổ tức này? Các nhà sản xuất chip trong nước phải làm thế nào để vượt qua "ngọn núi" Nvidia? Đây là một vấn đề mà không một công ty nào có thể thoát ra được.
01. Sự điên cuồng của AI đã tạo ra giá trị thị trường nghìn tỷ đô la Nvidia
Những người đàn ông thích mặc quần áo da là những người đầu tiên được hưởng cổ tức AI.
Vào cuối năm 2022, sau khi ChatGPT ra mắt, nó đã nhanh chóng gây ra cơn sốt AI trên toàn thế giới. Trong số đó, Nvidia, công ty đã đặt cược vào tương lai của AI, đã trở thành một trong những công ty được hưởng lợi nhiều nhất từ làn sóng ChatGPT. Tại hội nghị Nvidia GTC năm nay, người sáng lập kiêm Giám đốc điều hành Nvidia Jen-Hsun Huang đã tiết lộ công nghệ chip và trí tuệ nhân tạo mới, đồng thời cho biết "thời điểm iPhone" dành cho trí tuệ nhân tạo đã đến.
Tại buổi họp báo, Huang Renxun cho biết việc triển khai các mô hình ngôn ngữ quy mô lớn tương tự như ChatGPT là một khối lượng công việc lý luận mới quan trọng. trường. Trong số đó, một kiến trúc mới được áp dụng. Và chip H100 với quy trình tiên tiến hơn là bắt mắt nhất.
Nguồn: Trang web chính thức của NVIDIA
GPU này là H100 dựa trên kiến trúc NVIDIA Hopper, được trang bị một công cụ Transformer được thiết kế để xử lý và điều khiển các mô hình được đào tạo trước tương tự như ChatGPT. Một máy chủ tiêu chuẩn với bốn cặp H100 và GPU kép NVLink có thể tăng tốc độ đào tạo lên gấp 10 lần so với HGX A100 để xử lý GPT-3.
"H100 có thể giảm đáng kể chi phí xử lý các mô hình ngôn ngữ lớn." Huang Renxun từng nói. Dựa trên chip H100, Nvidia cũng đã xây dựng siêu máy tính DGX mới nhất, trang bị 8 GPU H100 để chúng có thể kết nối với nhau tạo thành một GPU khổng lồ, cung cấp “bản thiết kế” cho việc xây dựng hạ tầng AI mới hiện nay. Siêu máy tính DGX đã được đưa vào sản xuất hoàn chỉnh.
Sau đó, các chip GPU hiệu suất cao của Nvidia như A100, H100, A800 và H800 cũng tăng giá theo, đặc biệt là chip hàng đầu H100, được bán với giá hơn 40.000 đô la Mỹ trên các nền tảng thương mại điện tử nước ngoài vào giữa tháng 4 và một số người bán thậm chí còn định giá nó là 6,5 Mười nghìn đô la Mỹ.
Đồng thời, chip A800 và H800 dành riêng cho Trung Quốc của Nvidia cũng đã bị cướp. "Về cơ bản, các công ty mô hình quy mô lớn trong nước rất khó có được những con chip này. Nhu cầu trên toàn thị trường vượt quá nhu cầu và sự thiếu hụt là rất nghiêm trọng." Zhang Jue, người sáng lập nhà cung cấp linh kiện điện tử "Guangxin Century", thẳng thắn cho biết với Xinchao IC: "Năm nay, loại chip GPU này đã thay đổi từ khoảng 120.000 RMB thành 250.000 RMB hoặc thậm chí 300.000 RMB, hoặc thậm chí lên đến 500.000 RMB."
Không còn nghi ngờ gì nữa, khả năng dẫn đầu về công nghệ của Nvidia đối với GPU hiệu suất cao và hai chip AI của hãng, A100 và H100, là động lực cốt lõi cho các mô hình ngôn ngữ lớn như ChatGPT.
Một số chuyên gia điện toán đám mây tin rằng 10.000 chip Nvidia A100 là ngưỡng sức mạnh tính toán cho một mô hình AI tốt. Siêu máy tính AI mà Microsoft xây dựng cho OpenAI để đào tạo các mô hình của mình được trang bị 10.000 chip GPU Nvidia. Thật trùng hợp, các công ty Internet lớn trong nước cũng đã đặt hàng lớn với Nvidia, theo một báo cáo muộn của LatePost, Byte đã đặt hàng hơn 1 tỷ USD GPU từ Nvidia trong năm nay. hơn 1 tỷ Nhân dân tệ.
Điều thậm chí còn phóng đại hơn là liệu những công ty này cuối cùng có giành được quân bài hay không còn phụ thuộc nhiều hơn vào mối quan hệ làm ăn, đặc biệt là liệu đó có phải là khách hàng lớn của Nvidia trong quá khứ hay không. "Cho dù bạn nói chuyện với Nvidia của Trung Quốc hay đến Hoa Kỳ để nói chuyện trực tiếp với Lao Huang (Huang Renxun), thì vẫn có sự khác biệt."
Do đó, dữ liệu tài chính của Nvidia một lần nữa leo lên mức cao mới. Vào ngày 25 tháng 5, Nvidia đã công bố báo cáo tài chính quý 1. Doanh thu của mảng kinh doanh trung tâm dữ liệu nơi đặt chip AI đạt mức cao kỷ lục, duy trì tốc độ tăng trưởng hàng năm hơn 10%.
Huang Renxun tiết lộ rằng toàn bộ dòng sản phẩm trung tâm dữ liệu hiện đang được sản xuất và nguồn cung đang được tăng lên rất nhiều để đáp ứng nhu cầu tăng cao.
Hàng loạt tin tốt đã trực tiếp đẩy giá cổ phiếu của Nvidia ngày càng cao. Vào tối ngày 30 tháng 5, thị trường chứng khoán Hoa Kỳ mở cửa và giá trị thị trường của Nvidia trực tiếp vượt quá 1 nghìn tỷ USD. Vào ngày 19 tháng 7, tổng giá trị thị trường của Nvidia tăng vọt 175 tỷ đô la Mỹ chỉ sau một đêm, gây ra sự bùng nổ đầu tư trở lại.
Theo trang web Companiesmarketcap, tổng giá trị thị trường của Nvidia đứng thứ 6 thế giới và đây cũng là hãng chip có giá trị thị trường cao nhất hiện nay, gần bằng TSMC (533,6 tỷ USD). năm. Tôi phải thừa nhận rằng làn sóng cuồng AI này đã khiến Nvidia của Huang Renxun trở nên đầy đủ.
02. Không thể để Nvidia tận hưởng sức mạnh tính toán một cách điên cuồng
"Nvidia sẽ không độc quyền về chip đào tạo và suy luận quy mô lớn mãi mãi."
Đó là phản hồi của CEO Tesla Elon Musk trước dòng tweet của Adam D'Angelo, CEO của trang hỏi đáp xã hội và thị trường kiến thức trực tuyến Quora, người đã viết: "Một lý do khiến sự bùng nổ AI bị đánh giá thấp là sự thiếu hụt GPU/TPU. dẫn đến nhiều hạn chế đối với việc ra mắt sản phẩm và đào tạo người mẫu, nhưng không có điều nào trong số này là rõ ràng. Thay vào đó, chúng tôi thấy giá cổ phiếu của Nvidia tăng vọt. Một khi cung gặp cầu, mọi thứ sẽ tăng tốc."
Rõ ràng, Iron Man ở Thung lũng Silicon không đồng ý với điều này, anh ấy cũng nhận xét: "Nhiều chip gia tốc mạng thần kinh khác cũng đang được phát triển và Nvidia sẽ không độc quyền đào tạo và suy luận quy mô lớn mãi mãi."
Một cơn bão đang đến.
Sự điên cuồng của AI tập trung vào các mô hình lớn có thể thúc đẩy thị trường điện toán lớn đến mức nào? Soochow Securities tin rằng nhu cầu về sức mạnh tính toán của các mô hình AI tiếp tục mở rộng, mở ra nhu cầu thị trường về chip điện toán hiệu năng cao, ước tính quy mô thị trường chip AI của nước tôi sẽ đạt 178 tỷ nhân dân tệ vào năm 2025 và tốc độ tăng trưởng kép hàng năm giai đoạn 2019 - 2025 đạt 42,9%. Từ góc độ quy mô thị trường, chip AI đang ở giai đoạn sơ khai nhưng chúng có tiềm năng phát triển rất lớn.
Chip AI là một khái niệm rộng, thường dùng để chỉ một mô-đun được sử dụng đặc biệt để xử lý các tác vụ điện toán trong các ứng dụng trí tuệ nhân tạo. Nó là một phần cứng tác vụ điện toán ra đời trong thời đại ứng dụng trí tuệ nhân tạo phát triển nhanh chóng. Tất cả các chip dành cho trí tuệ nhân tạo các ứng dụng được gọi là chip AI. Có ba tuyến kỹ thuật chính: mục đích chung (GPU), bán tùy chỉnh (FPGA) và tùy chỉnh (ASIC).
Từ góc độ đào tạo mô hình quy mô lớn, tinh chỉnh dựa trên kịch bản và các kịch bản ứng dụng suy luận, sức mạnh tính toán không đồng nhất được cung cấp bởi chip CPU+AI, khả năng tính toán song song vượt trội và băng thông kết nối cao có thể hỗ trợ hiệu quả tối đa của điện toán AI và trở thành một giải pháp chủ đạo thông minh cho điện toán.
Về thị phần, theo iResearch, đến năm 2027, thị trường chip AI của Trung Quốc dự kiến đạt 216,4 tỷ nhân dân tệ. Với việc tối ưu hóa các mô hình AI được triển khai, tỷ lệ chip suy luận AI sẽ tăng lên từng ngày. Vào năm 2022, chip đào tạo AI và chip lý luận AI của Trung Quốc sẽ lần lượt chiếm 47,2% và 52,8%.
Hiện tại, có ba loại người chơi trong lĩnh vực chip AI: một là những gã khổng lồ chip lâu đời do Nvidia và AMD đại diện, với hiệu suất sản phẩm vượt trội, hai là những gã khổng lồ điện toán đám mây do Google, Baidu và Huawei đại diện. , đồng thời phát triển chip AI, nền tảng học sâu, v.v. để hỗ trợ phát triển các mô hình lớn. Ví dụ: Kunpeng Ascend của Huawei, CANN và Mindspore, Kunlun Core của Baidu, v.v. Cuối cùng, có một số kỳ lân chip AI nhỏ và đẹp, chẳng hạn như Cambrian, Biren Technology, Tianshu Zhixin, v.v.
Mặc dù sự bùng nổ của các mô hình quy mô lớn trong nước có thể gây ra khoảng cách về sức mạnh tính toán, nhưng việc các nhà sản xuất chip trong nước được hưởng lợi từ việc thay thế trong nước chỉ là vấn đề thời gian. Với tư cách là nhà phát triển chip đào tạo AI, Cambrian, "cổ phiếu chip AI đầu tiên", một lần nữa thu hút sự chú ý của thị trường và giá cổ phiếu của nó không ngừng tăng lên. Giá trị thị trường mới nhất đã vượt quá 90 tỷ.
Trong dòng sản phẩm đám mây, Cambricon đã ra mắt bốn thế hệ sản phẩm chip: Siyuan 100 vào năm 2018, Siyuan 270 vào năm 2019, Siyuan 290 (phương tiện) vào năm 2020 và dòng Siyuan 370 ra mắt vào năm 2021. Nó được sử dụng để hỗ trợ các tác vụ xử lý trí tuệ nhân tạo với sự tăng trưởng nhanh chóng về độ phức tạp và thông lượng dữ liệu trong các kịch bản trung tâm dữ liệu và điện toán đám mây. Ngoài ra, Cambrian còn có một sản phẩm đang được nghiên cứu là Siyuan 590, sản phẩm này vẫn chưa được công bố. Ngoài ra, vào cuối năm 2022, dòng Siyuan 370 và sản phẩm Baidu Flying Paddle của AIGC sẽ hoàn thành thử nghiệm tương thích Cấp II.
Tuy nhiên, liệu các công ty mô hình quy mô lớn trong nước có áp dụng chip Cambrian hay không vẫn chưa nhận được thông tin chính xác. "Trong lĩnh vực chip AI cao cấp, các nhà sản xuất trong nước đang ở giai đoạn sơ khai và nhiều thứ cần thời gian và tiền bạc để xác minh." Một kỹ sư chip cao cấp tiết lộ. Ngay cả chip của các công ty như Huawei, Baidu và Haiguang Information cũng có khoảng cách rõ ràng với sản phẩm của Nvidia.
Ai đó đã từng thẳng thắn nói rằng khoảng cách giữa Nvidia và các nhà sản xuất chip khác chính là sự khác biệt giữa viện sĩ và học sinh trung học. Như Huang Renxun đã nói, Nvidia "đã chạy", và các nhà sản xuất chip khác muốn vượt mặt những gã khổng lồ chỉ có thể điên cuồng chạy.
03. "Trò chơi vương quyền" đằng sau mô hình AI lớn
Ngoài Nvidia, AMD, một gã khổng lồ GPU khác, gần đây cũng đã có hành động.
Mới đây AMD đã ra mắt card tăng tốc mới nhất Tại địa điểm hội thảo nơi AMD ra mắt card tăng tốc mới nhất Instinct MI300X, một dòng chữ được đánh đặc biệt trên PPT - dành riêng cho các mẫu ngôn ngữ lớn, được giới chuyên môn coi như một lời tuyên bố trực tiếp. của cuộc chiến chống lại Nvidia!
Được biết, mật độ bộ nhớ băng thông cao (HBM) của MI300X có thể đạt tới 2,4 lần so với NVIDIA H100 và băng thông của bộ nhớ băng thông cao có thể đạt tới 1,6 lần so với H100. Rõ ràng, MI300X có thể chạy một mô hình AI lớn hơn H100.
Sê-ri MI300 trong đó có MI300X là một sê-ri thẻ tăng tốc APU mới nhất do AMD tạo ra cho AI và HPC. Trong số đó, MI300A là "mẫu cơ bản" và MI300X là "mẫu được tối ưu hóa cho mẫu lớn" với hiệu suất phần cứng cao hơn.
Hiện tại, MI300A đã được lấy mẫu và ước tính sẽ sớm có hàng để mua; thẻ chuyên dụng quy mô lớn MI300X và nền tảng máy tính AMD Instinct tích hợp 8 MI300X dự kiến sẽ được lấy mẫu vào quý 3 năm nay năm, và sẽ được đưa ra trong quý IV.
Trong vài năm trở lại đây, so với những bước tiến lớn của Nvidia trong lĩnh vực AI, hành động của AMD có vẻ hơi chậm chạp. Như Eric Jang, Giám đốc điều hành của DeepBrain AI, cho biết, ông ấy cảm thấy rằng AMD đã khiến ông ấy thất vọng trong vài năm qua và không có gì thay đổi trong 5 năm qua. Nhất là trong thời điểm AIGC bùng phát, nếu AMD không nỗ lực theo kịp thì khoảng cách chỉ ngày càng nới rộng.
Với sự ra mắt của dòng sản phẩm MI300 của AMD, cuối cùng chúng ta cũng có thể thấy AMD và Nvidia đối đầu trực diện.
Thật không may, thị trường dường như không mua thẻ mới của AMD.
Trong hội nghị AMD này, giá cổ phiếu của nó không tăng mà lại giảm. Ngược lại, giá cổ phiếu của Nvidia cũng tăng một cách chóng mặt. Tâm lý thị trường không có gì khó hiểu, bởi trong lĩnh vực công nghệ cao, nhất là ở các thị trường mới nổi, việc bắt kịp từng bước và giữ thế mạnh đang trở thành một logic chung trong thị trường thương mại.
Nhưng trên thực tế, sau khi nghiên cứu kỹ lưỡng các nguyên nhân, có thể thấy rằng lý do chính khiến Nvidia độc quyền thị trường chip đào tạo trí tuệ nhân tạo là do họ tự phát triển hệ sinh thái CUDA. Do đó, nếu AMD MI300 muốn thay thế Nvidia, thì trước tiên nó phải tương thích với hệ sinh thái CUDA của Nvidia, AMD đã ra mắt hệ sinh thái ROCm cho mục đích này và đạt được khả năng tương thích hoàn toàn với CUDA thông qua HIP, do đó giảm chi phí đã biết cho người dùng.
Về vấn đề này, Murong Yi, một blogger đầu tư nổi tiếng, tin rằng khó khăn khi đi theo con đường tương thích với NVIDIA CUDA là tốc độ lặp lại cập nhật của nó không bao giờ có thể theo kịp CUDA và rất khó để đạt được khả năng tương thích hoàn toàn, đó là , một mặt, việc lặp lại luôn chậm hơn một bước. GPU Nvidia lặp lại nhanh chóng trên kiến trúc vi mô và bộ hướng dẫn, đồng thời các bản cập nhật chức năng tương ứng được yêu cầu ở nhiều nơi trên ngăn xếp phần mềm phía trên, nhưng AMD không thể biết lộ trình sản phẩm của Nvidia và các bản cập nhật phần mềm sẽ luôn chậm hơn một bước so với Nvidia (ví dụ: AMD có thể mới công bố hỗ trợ CUDA11, nhưng Nvidia đã tung ra CUDA12), mặt khác, khó tương thích hoàn toàn sẽ làm tăng khối lượng công việc của các nhà phát triển. rất phức tạp và AMD cần đầu tư rất nhiều nhân lực và vật lực, sẽ mất nhiều năm thậm chí hơn mười năm để bắt kịp, bởi vì chắc chắn sẽ có sự khác biệt về chức năng, và nếu việc tương thích không được thực hiện tốt sẽ ảnh hưởng đến buổi biểu diễn. Do đó, đây cũng là những lý do chính khiến mọi người không mua nó.
Theo ước tính của Khaveen Investments, thị phần GPU trung tâm dữ liệu của Nvidia sẽ đạt 88% vào năm 2022, AMD và Intel sẽ chia phần còn lại.
Kể từ khi OpenAI phát hành ChatGPT vào năm ngoái, một vòng cách mạng công nghệ mới đã tiếp tục lên men. Có thể nói, không có tiến bộ công nghệ nào thu hút sự chú ý của thế giới nhiều như ChatGPT trong nhiều năm qua.
Nhiều công ty công nghệ, tổ chức nghiên cứu khoa học, cao đẳng và đại học trong và ngoài nước đang theo sát, trong vòng chưa đầy nửa năm, rất nhiều công ty mới thành lập cho các ứng dụng mô hình quy mô lớn đã xuất hiện và quy mô tài chính đã tăng lên gấp nhiều lần đạt mức cao mới.
Theo blogger wgang, Baidu, iFLYTEK, 4Paradigm, Đại học Thanh Hoa, Fudan và các nhà máy lớn khác trong nước, các công ty mới thành lập và các tổ chức nghiên cứu khoa học đã liên tiếp phát hành các sản phẩm mô hình quy mô lớn:
Nguồn: Zhihu wgwang
Có thể thấy, không chỉ trong lĩnh vực chung mà trong các kịch bản ngành cụ thể, đặc biệt là một số lĩnh vực mang tính chuyên nghiệp cao, hàm lượng tri thức cao, các hãng công nghệ cũng tung ra những mô hình lớn theo ngành dọc. Ví dụ: Baijiayun (RTC), một công ty niêm yết tại Hoa Kỳ, gần đây đã phát hành sản phẩm AIGC "Market Easy" dựa trên hiểu biết sâu sắc về nhu cầu dịch vụ của doanh nghiệp. Đây cũng là công cụ mô hình quy mô lớn GPT đầu tiên phù hợp với các kịch bản sản xuất nội dung của bộ phận marketing doanh nghiệp.
Một số người trong ngành cười nói: "Các người mẫu quy mô lớn trong nước đã hình thành tình trạng các nhóm người mẫu nhảy múa điên cuồng và hàng trăm người mẫu cạnh tranh. Dự kiến sẽ có hơn 100 người mẫu quy mô lớn vào cuối năm năm."
Tuy nhiên, việc phát triển mô hình lớn cần có sự hỗ trợ của 3 yếu tố quan trọng: thuật toán, sức mạnh tính toán và dữ liệu, sức mạnh tính toán là động cơ năng lượng quan trọng để đào tạo mô hình lớn, đồng thời cũng là rào cản lớn đối với sự phát triển của ngành mô hình lớn ở Trung Quốc.
Khả năng chip ảnh hưởng trực tiếp đến hiệu quả và tốc độ đào tạo máy tính cao. Như đã đề cập ở trên, mặc dù các sản phẩm mô hình quy mô lớn trong nước thường xuyên xuất hiện, nhưng đánh giá từ các chip đằng sau chúng, tất cả các nền tảng này đều sử dụng GPU Nvidia A100 và H100 hoặc phiên bản A800 và A800 được Nvidia ra mắt đặc biệt sau lệnh cấm vào năm ngoái. băng thông của hai bộ xử lý này bằng khoảng 3/4 và khoảng một nửa so với phiên bản gốc, tránh tiêu chuẩn giới hạn của GPU hiệu suất cao.
Vào tháng 3 năm nay, Tencent đã đi đầu trong việc thông báo rằng họ đã sử dụng H800.Hãng đã sử dụng H800 trong phiên bản mới của dịch vụ điện toán hiệu năng cao do Tencent Cloud phát hành và cho biết đây là phiên bản đầu tiên ở Trung Quốc.
Alibaba Cloud cũng đã đề xuất nội bộ vào tháng 5 năm nay rằng "Trận chiến điện toán thông minh" sẽ là trận chiến số một trong năm nay và số lượng GPU đã trở thành một chỉ số quan trọng trong trận chiến của nó.
Ngoài ra, Shangtang cũng thông báo rằng gần 30.000 GPU đã được triển khai trong cụm điện toán "thiết bị lớn AI" của mình, trong đó 10.000 GPU là Nvidia A100. Byte và Meituan phân bổ trực tiếp GPU từ các nhóm kinh doanh khác của công ty để đào tạo mô hình lớn. Một số nhà sản xuất thậm chí đã tìm kiếm các sản phẩm máy hoàn chỉnh khác nhau có thể loại bỏ A100 trên thị trường kể từ nửa cuối năm 2022, với mục đích duy nhất là kiếm được chip GPU. "Có quá nhiều máy móc và không đủ chỗ để cất chúng."
Được biết, các công ty công nghệ hàng đầu trong nước đã đầu tư rất nhiều vào AI và điện toán đám mây, trong thời gian qua, số A100 tích lũy đã lên tới hàng chục nghìn.
Đồng thời, các công ty công nghệ lớn của Trung Quốc vẫn đang tham gia vào một vòng cạnh tranh mua sắm mới.
Theo một nhà cung cấp dịch vụ đám mây, các công ty lớn như Byte và Alibaba chủ yếu đàm phán mua hàng trực tiếp với nhà máy gốc của Nvidia, các đại lý và chợ đồ cũ khó đáp ứng được nhu cầu quá lớn của họ.
Như đã đề cập ở trên, ByteDance đã đặt hàng hơn 1 tỷ đô la Mỹ các sản phẩm GPU từ Nvidia trong năm nay.Chỉ riêng khối lượng mua Byte trong năm nay đã gần bằng tổng doanh số bán GPU thương mại của Nvidia tại Trung Quốc vào năm ngoái. Theo báo cáo, có một công ty lớn khác với đơn đặt hàng ít nhất hơn 1 tỷ nhân dân tệ.
Có thể thấy các hãng công nghệ lớn của Trung Quốc đang rất gấp rút mua GPU.
Không chỉ các công ty trong nước, mà các khách hàng lớn nước ngoài cũng có nhu cầu rất cao về chip A100/H100 của Nvidia. Theo thống kê, Baidu, công ty đầu tiên bắt đầu thử nghiệm các sản phẩm giống ChatGPT, có chi phí vốn hàng năm từ 800 triệu đến 2 tỷ USD kể từ năm 2020 và của Alibaba từ 6 tỷ đến 8 tỷ USD. Trong cùng thời kỳ, Amazon, Meta, Google và Microsoft, bốn công ty công nghệ Mỹ đã xây dựng trung tâm dữ liệu của riêng họ, có chi phí vốn hàng năm ít nhất là 15 tỷ đô la Mỹ.
Hiện tại, khả năng hiển thị các đơn đặt hàng của Nvidia đã đến năm 2024 và các chip cao cấp đang bị thiếu hụt. Với tiến độ sản xuất hiện tại, thậm chí A800/H800 cũng phải đến cuối năm nay hoặc năm sau mới được giao hàng. Trước mắt, từ mức độ phổ biến của nó, điều duy nhất ảnh hưởng đến doanh số GPU cao cấp của Nvidia có thể là năng lực sản xuất của TSMC.
04. Đằng sau Nvidia "điên rồ", chip nội có đủ mạnh về cả phần cứng lẫn phần mềm?
Đánh giá về việc cung cấp chip cho các sản phẩm mô hình quy mô lớn, hiện tại không có sản phẩm thay thế nào cho A100, H100 và các phiên bản rút gọn của A800 và H800 được cung cấp đặc biệt cho Trung Quốc về đào tạo mô hình quy mô lớn AI.
Vậy tại sao trong đợt bùng nổ GPT này, Nvidia lại dẫn đầu và thể hiện tốt?
Zhang Gaonan, đối tác quản lý của Huaying Capital, cho biết một mặt là do Nvidia có bố cục sớm nhất và cấu trúc vi nhân của nó cũng đã phát triển và cải thiện từ thế hệ này sang thế hệ khác. Giờ đây, cho dù đó là về mặt đồng thời, tốc độ bus hay hỗ trợ trưởng thành của hạt nhân vi mô để chuyển đổi ma trận, các khả năng của nó đã rất hiệu quả, bao gồm cả việc cung cấp đồng thời một nền tảng điện toán CUDA rất hoàn chỉnh, trên thực tế đã trở thành một tiêu chuẩn công nghiệp tiềm năng cho thuật toán học sâu.Các cơ sở hỗ trợ của toàn bộ chuỗi công nghiệp cũng rất hoàn chỉnh, và các rào cản cạnh tranh toàn diện và độ sâu của hào là cực kỳ cao.
Tóm lại, sức mạnh không thể thay thế của GPU Nvidia hiện nay đến từ cơ chế đào tạo của các mô hình lớn, các bước cốt lõi của nó là đào tạo trước và tinh chỉnh, trước là đặt nền móng, tương đương với việc học phổ thông Tốt nghiệp đại học ; cái sau được tối ưu hóa cho các kịch bản và nhiệm vụ cụ thể để cải thiện hiệu suất công việc.
Vậy chip GPU nội địa có đáp ứng được yêu cầu về sức mạnh tính toán của các dòng máy lớn hay không?
Trong các ứng dụng thực tế, nhu cầu về sức mạnh tính toán của mô hình lớn được chia thành hai giai đoạn, một là quá trình đào tạo mô hình lớn ChatGPT, hai là quá trình lý luận để thương mại hóa mô hình. Đó là, đào tạo AI là để tạo ra các mô hình và lý luận của AI là sử dụng các mô hình và đào tạo yêu cầu hiệu suất chip cao hơn.
Dựa trên điều này, các công ty chip AI trong nước tiếp tục ra đời, lần lượt tung sản phẩm ra thị trường. Các công ty như Suiyuan Technology, Biren Technology, Tianshu Zhixin và Cambrian đều đã tung ra các sản phẩm GPU đám mây của riêng họ và các chỉ số hiệu suất lý thuyết không hề yếu. Chip DCU "Shensu số 1" của Haiguang Information có hệ sinh thái phần cứng và phần mềm tương đối hoàn chỉnh và tương thích với kiến trúc CUDA. Và các công ty Internet lớn như Tencent, Baidu, Ali cũng đang triển khai mạnh mẽ trong lĩnh vực chip AI thông qua đầu tư và ươm tạo.
Trong số đó, đào tạo mô hình quy mô lớn cần xử lý thông tin có độ chi tiết cao, đòi hỏi độ chính xác và tốc độ tính toán cao hơn của chip đào tạo đám mây, hiện tại hầu hết các GPU trong nước đều không có khả năng hỗ trợ đào tạo mô hình quy mô lớn. cho công việc suy luận trên đám mây không yêu cầu độ chi tiết thông tin cao như vậy.
* Các sản phẩm AI và IC sóng lõi ứng dụng của một số công ty liên quan trong nước được sắp xếp theo thông tin công khai *
Vào tháng 3 năm nay, Baidu Li Yanhong đã công khai tuyên bố rằng chip Kunlun hiện rất phù hợp để suy luận về các mô hình lớn và sẽ phù hợp để đào tạo trong tương lai.
Zou Wei, phó chủ tịch của Tianshu Zhixin, cũng nói với Xinchao IC rằng vẫn còn một khoảng cách nhất định giữa chip nội địa và các sản phẩm mới nhất của Nvidia, nhưng về mặt tính toán suy luận, chip nội địa có thể đạt được hiệu suất tương đương với các sản phẩm phổ thông và với ứng dụng của trí tuệ nhân tạo Phổ biến, nhu cầu thị trường về chip lý luận sẽ đẩy nhanh tốc độ tăng trưởng và với việc mở rộng nhu cầu, chip trong nước cũng sẽ có thị trường lớn hơn.
Một người khác trong ngành không muốn nêu tên cho biết: "Các sản phẩm GPU đa năng trong nước đúng là có khoảng cách với các sản phẩm chủ lực quốc tế trong việc đáp ứng đào tạo mô hình quy mô lớn, nhưng không phải là không thể khắc phục được. Chỉ là ngành đã có không thiết kế theo hướng mô hình đại trà trong định nghĩa sản phẩm”.
Hiện tại, những người thực hành trong ngành đang thực hiện những khám phá và nỗ lực có liên quan, chẳng hạn như suy nghĩ về việc liệu sức mạnh tính toán của chip có thể được cải thiện thông qua các chiplet và bao bì tiên tiến hay không. Hiện tại, các công ty GPU trong nước đang phát triển và bố trí chip trong lĩnh vực mô hình lớn.
Từ góc độ vốn, Zhang Gaonan, đối tác quản lý của Huaying Capital, nói với Xinchao IC rằng Huaying đã rất chú ý đến cơ sở hạ tầng điện toán trong một thời gian dài.Cho dù đó là GPU, DPU hay điện toán lai quang điện tiên tiến hơn, điện toán lượng tử , có mục tiêu nghiên cứu và bố trí. Nhìn chung, nó tập trung vào cơ sở hạ tầng điện toán đa năng, chẳng hạn như FPGA và điện toán cạnh. Ngược lại, hiện tại, nhiều chip sức mạnh tính toán xung quanh học sâu, thuật toán đặc biệt, tối ưu hóa sức mạnh tính toán cục bộ, v.v. không phải là trọng tâm xem xét của nó.
Thực tế, ngoài khoảng cách về hiệu năng phần cứng, hệ sinh thái phần mềm cũng là một điểm thiếu sót của các nhà sản xuất chip AI trong nước.
Con chip cần thích ứng với nhiều cấp độ như hệ thống phần cứng, chuỗi công cụ, trình biên dịch, v.v., và cần khả năng thích ứng mạnh mẽ, nếu không, con chip này có thể chạy 90% sức mạnh tính toán trong một cảnh nhưng chỉ có thể chạy 90% trong một cảnh khác phân cảnh.Chạy hết 80% hiệu suất kịch bản.
Như đã đề cập ở trên, Nvidia rõ ràng có lợi thế về mặt này. Đầu năm 2006, Nvidia đã tung ra nền tảng điện toán CUDA, là một công cụ phần mềm tính toán song song. Khung CUDA tích hợp rất nhiều mã cần thiết để gọi sức mạnh tính toán GPU. Các kỹ sư có thể trực tiếp sử dụng các mã này mà không cần viết từng mã một. Các nhà phát triển có thể sử dụng CUDA để thực hiện đào tạo AI và suy luận hiệu quả hơn, đồng thời tận dụng tốt hơn sức mạnh tính toán của GPU. Ngày nay, CUDA đã trở thành một cơ sở hạ tầng AI và các khung, thư viện và công cụ AI chính thống đều được phát triển dựa trên CUDA.
Không có bộ ngôn ngữ lập trình này, các kỹ sư phần mềm sẽ cực kỳ khó nhận ra giá trị của phần cứng.
Nếu GPU và chip AI không phải Nvidia muốn truy cập CUDA, họ cần cung cấp phần mềm thích ứng của riêng mình. Theo những người trong ngành, tôi đã liên hệ với một nhà sản xuất GPU không phải của NVIDIA, mặc dù báo giá chip và dịch vụ của họ thấp hơn NVIDIA và hứa hẹn sẽ cung cấp dịch vụ kịp thời hơn, nhưng tổng chi phí đào tạo và phát triển khi sử dụng GPU của họ sẽ cao hơn NVIDIA. sự không chắc chắn của kết quả và thời gian phát triển.
Mặc dù GPU Nvidia đắt tiền, nhưng chúng thực sự rẻ nhất để sử dụng. Đối với các công ty có ý định nắm bắt cơ hội của các mô hình quy mô lớn, tiền thường không phải là vấn đề và thời gian là tài nguyên quý giá hơn, mọi người phải có đủ sức mạnh tính toán tiên tiến càng sớm càng tốt để đảm bảo lợi thế của người đi trước.
Do đó, đối với các nhà cung cấp chip trong nước, ngay cả khi một sản phẩm có sức mạnh tính toán tương đương có thể được xếp chồng lên nhau bằng cách xếp chồng chip, khách hàng sẽ khó chấp nhận việc điều chỉnh và tương thích phần mềm hơn. Ngoài ra, từ góc độ vận hành máy chủ, chi phí bo mạch chủ, tiền điện, chi phí vận hành và các vấn đề như tiêu thụ điện năng và tản nhiệt cần được xem xét sẽ làm tăng đáng kể chi phí vận hành của trung tâm dữ liệu.
Do tài nguyên sức mạnh tính toán thường cần được thể hiện dưới dạng tổng hợp, nên các trung tâm dữ liệu thường sẵn sàng sử dụng cùng một con chip hoặc các con chip từ cùng một công ty để giảm bớt khó khăn trong việc tổng hợp sức mạnh tính toán.
Việc giải phóng sức mạnh tính toán đòi hỏi sự hợp tác phức tạp giữa phần mềm và phần cứng để biến sức mạnh tính toán lý thuyết của chip thành sức mạnh tính toán hiệu quả. Đối với khách hàng, việc sử dụng chip AI trong nước không dễ dàng, việc thay thế chip AI trên đám mây đòi hỏi chi phí di chuyển và rủi ro nhất định, trừ khi sản phẩm mới có lợi thế về hiệu suất hoặc có thể cung cấp các vấn đề mà người khác không thể giải quyết ở một khía cạnh nhất định. của khách hàng để thay thế là rất thấp.
Là nhà cung cấp GPU duy nhất có thể thực sự xử lý ChatGPT, Nvidia xứng đáng là "ông hoàng sức mạnh điện toán AI". Sáu năm trước, Huang Renxun đã đích thân giao siêu máy tính đầu tiên được trang bị chip A100 cho OpenAI, giúp OpenAI tạo ra ChatGPT và trở thành người dẫn đầu kỷ nguyên AI.
Tuy nhiên, kể từ khi Hoa Kỳ thực hiện các biện pháp kiểm soát xuất khẩu vào năm ngoái, Nvidia đã bị cấm xuất khẩu hai chip GPU tiên tiến nhất của mình là H100 và A100 sang Trung Quốc. Đây chắc chắn là một đòn giáng mạnh vào các công ty ứng dụng hạ nguồn.
Từ góc độ bảo mật và tự kiểm soát, điều này cũng mang đến một cơ hội mới cho các công ty chip trong nước. Mặc dù chip trong nước thua kém những gã khổng lồ trong ngành như Nvidia và AMD về hiệu suất và hệ sinh thái phần mềm, do quan hệ thương mại quốc tế phức tạp và các yếu tố địa chính trị, "sự thay thế trong nước" đã trở thành chủ đề chính cho sự phát triển của ngành công nghiệp bán dẫn trong nước.
05. Kết luận
Mỗi lần gia tăng sức mạnh tính toán sẽ tạo ra một làn sóng thay đổi công nghệ và công nghiệp: CPU đưa nhân loại vào kỷ nguyên PC, chip di động tạo ra làn sóng Internet di động và chip AI phá vỡ nút cổ chai sức mạnh tính toán kéo dài hàng thập kỷ trong AI. ngành công nghiệp.
Hôm nay, "Khoảnh khắc AI iPhone" đã đến và con đường dẫn đến kỷ nguyên tiếp theo có thể đã ở trước mắt chúng ta.
Mặc dù các lĩnh vực chip AI và hệ thống phần mềm trong các trung tâm dữ liệu này vẫn do các nhà sản xuất nước ngoài thống trị, nhưng cánh cửa thị trường cho "nội địa hóa sức mạnh tính toán" có thể đang mở ra ngay bây giờ.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Lễ hội điện toán, "phiên bản Trung Quốc" của Nvidia là ai?
**Nguồn: **IC lõi Tide
Văn bản: Wang Yike Ten Ngõ
Biên tập: Tô Dương Húc Bạch
Làn sóng cách mạng AI vô tình được kích hoạt bởi ChatGPT một lần nữa đốt cháy thị trường chip AI.
"Những con chip như A800 và H800 đã thay đổi từ khoảng 120.000 RMB lên 250.000 hoặc thậm chí 300.000, thậm chí cao tới 500.000." Đây là một cảnh có thật trong vòng phân phối chip trong nước. số lượng, và họ phải có "mối quan hệ trực tiếp" với Huang Renxun.
Vì cái gọi là "không có chip, không có AI", khi nhu cầu về sức mạnh tính toán của các mô hình lớn tăng vọt, chip, vốn là nền tảng của công nghệ AI, mở ra những cơ hội kinh doanh quan trọng. OpenAI từng dự đoán rằng để tạo ra những bước đột phá trong nghiên cứu khoa học trí tuệ nhân tạo, tài nguyên máy tính cần tiêu thụ sẽ tăng gấp đôi sau mỗi 3 đến 4 tháng và kinh phí cũng cần phải phù hợp với tốc độ tăng trưởng theo cấp số nhân "Định luật Moore".
Giám đốc tài chính Nvidia Kress cho biết nhu cầu thị trường hiện tại về sức mạnh tính toán AI đã vượt quá mong đợi của công ty trong vài quý tới và có quá nhiều đơn đặt hàng cần thực hiện.
Làn sóng AI sáng tạo đã giúp Nvidia kiếm được rất nhiều tiền. Sau 14 năm niêm yết, Nvidia đã thành công bước vào câu lạc bộ vốn hóa nghìn tỷ USD, để đạt được mục tiêu này, các ông lớn ở Thung lũng Silicon như Apple mất 37 năm, Microsoft mất 33 năm, Amazon mất 21 năm và Tesla chạy nhanh nhất. chỉ mất 11 năm.
Điều này cũng đã kích thích các công ty chip Trung Quốc háo hức thử sức, các công ty chip trong nước như Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin, v.v. dựa vào nghiên cứu của chính họ. Một số nhà sản xuất lớn cũng đã bắt đầu sử dụng chip AI tự phát triển để hỗ trợ một phần nhiệm vụ đào tạo hay suy luận của mô hình, chẳng hạn như chip Baidu Kunlun, Ali Hanguang 800...
Đối mặt với thị trường nghìn tỷ đô la do sức mạnh tính toán AI mang lại, liệu các công ty trong nước có thể tận hưởng làn sóng cổ tức này? Các nhà sản xuất chip trong nước phải làm thế nào để vượt qua "ngọn núi" Nvidia? Đây là một vấn đề mà không một công ty nào có thể thoát ra được.
01. Sự điên cuồng của AI đã tạo ra giá trị thị trường nghìn tỷ đô la Nvidia
Những người đàn ông thích mặc quần áo da là những người đầu tiên được hưởng cổ tức AI.
Vào cuối năm 2022, sau khi ChatGPT ra mắt, nó đã nhanh chóng gây ra cơn sốt AI trên toàn thế giới. Trong số đó, Nvidia, công ty đã đặt cược vào tương lai của AI, đã trở thành một trong những công ty được hưởng lợi nhiều nhất từ làn sóng ChatGPT. Tại hội nghị Nvidia GTC năm nay, người sáng lập kiêm Giám đốc điều hành Nvidia Jen-Hsun Huang đã tiết lộ công nghệ chip và trí tuệ nhân tạo mới, đồng thời cho biết "thời điểm iPhone" dành cho trí tuệ nhân tạo đã đến.
Tại buổi họp báo, Huang Renxun cho biết việc triển khai các mô hình ngôn ngữ quy mô lớn tương tự như ChatGPT là một khối lượng công việc lý luận mới quan trọng. trường. Trong số đó, một kiến trúc mới được áp dụng. Và chip H100 với quy trình tiên tiến hơn là bắt mắt nhất.
GPU này là H100 dựa trên kiến trúc NVIDIA Hopper, được trang bị một công cụ Transformer được thiết kế để xử lý và điều khiển các mô hình được đào tạo trước tương tự như ChatGPT. Một máy chủ tiêu chuẩn với bốn cặp H100 và GPU kép NVLink có thể tăng tốc độ đào tạo lên gấp 10 lần so với HGX A100 để xử lý GPT-3.
"H100 có thể giảm đáng kể chi phí xử lý các mô hình ngôn ngữ lớn." Huang Renxun từng nói. Dựa trên chip H100, Nvidia cũng đã xây dựng siêu máy tính DGX mới nhất, trang bị 8 GPU H100 để chúng có thể kết nối với nhau tạo thành một GPU khổng lồ, cung cấp “bản thiết kế” cho việc xây dựng hạ tầng AI mới hiện nay. Siêu máy tính DGX đã được đưa vào sản xuất hoàn chỉnh.
Sau đó, các chip GPU hiệu suất cao của Nvidia như A100, H100, A800 và H800 cũng tăng giá theo, đặc biệt là chip hàng đầu H100, được bán với giá hơn 40.000 đô la Mỹ trên các nền tảng thương mại điện tử nước ngoài vào giữa tháng 4 và một số người bán thậm chí còn định giá nó là 6,5 Mười nghìn đô la Mỹ.
Đồng thời, chip A800 và H800 dành riêng cho Trung Quốc của Nvidia cũng đã bị cướp. "Về cơ bản, các công ty mô hình quy mô lớn trong nước rất khó có được những con chip này. Nhu cầu trên toàn thị trường vượt quá nhu cầu và sự thiếu hụt là rất nghiêm trọng." Zhang Jue, người sáng lập nhà cung cấp linh kiện điện tử "Guangxin Century", thẳng thắn cho biết với Xinchao IC: "Năm nay, loại chip GPU này đã thay đổi từ khoảng 120.000 RMB thành 250.000 RMB hoặc thậm chí 300.000 RMB, hoặc thậm chí lên đến 500.000 RMB."
Không còn nghi ngờ gì nữa, khả năng dẫn đầu về công nghệ của Nvidia đối với GPU hiệu suất cao và hai chip AI của hãng, A100 và H100, là động lực cốt lõi cho các mô hình ngôn ngữ lớn như ChatGPT.
Một số chuyên gia điện toán đám mây tin rằng 10.000 chip Nvidia A100 là ngưỡng sức mạnh tính toán cho một mô hình AI tốt. Siêu máy tính AI mà Microsoft xây dựng cho OpenAI để đào tạo các mô hình của mình được trang bị 10.000 chip GPU Nvidia. Thật trùng hợp, các công ty Internet lớn trong nước cũng đã đặt hàng lớn với Nvidia, theo một báo cáo muộn của LatePost, Byte đã đặt hàng hơn 1 tỷ USD GPU từ Nvidia trong năm nay. hơn 1 tỷ Nhân dân tệ.
Điều thậm chí còn phóng đại hơn là liệu những công ty này cuối cùng có giành được quân bài hay không còn phụ thuộc nhiều hơn vào mối quan hệ làm ăn, đặc biệt là liệu đó có phải là khách hàng lớn của Nvidia trong quá khứ hay không. "Cho dù bạn nói chuyện với Nvidia của Trung Quốc hay đến Hoa Kỳ để nói chuyện trực tiếp với Lao Huang (Huang Renxun), thì vẫn có sự khác biệt."
Do đó, dữ liệu tài chính của Nvidia một lần nữa leo lên mức cao mới. Vào ngày 25 tháng 5, Nvidia đã công bố báo cáo tài chính quý 1. Doanh thu của mảng kinh doanh trung tâm dữ liệu nơi đặt chip AI đạt mức cao kỷ lục, duy trì tốc độ tăng trưởng hàng năm hơn 10%.
Huang Renxun tiết lộ rằng toàn bộ dòng sản phẩm trung tâm dữ liệu hiện đang được sản xuất và nguồn cung đang được tăng lên rất nhiều để đáp ứng nhu cầu tăng cao.
Hàng loạt tin tốt đã trực tiếp đẩy giá cổ phiếu của Nvidia ngày càng cao. Vào tối ngày 30 tháng 5, thị trường chứng khoán Hoa Kỳ mở cửa và giá trị thị trường của Nvidia trực tiếp vượt quá 1 nghìn tỷ USD. Vào ngày 19 tháng 7, tổng giá trị thị trường của Nvidia tăng vọt 175 tỷ đô la Mỹ chỉ sau một đêm, gây ra sự bùng nổ đầu tư trở lại.
Theo trang web Companiesmarketcap, tổng giá trị thị trường của Nvidia đứng thứ 6 thế giới và đây cũng là hãng chip có giá trị thị trường cao nhất hiện nay, gần bằng TSMC (533,6 tỷ USD). năm. Tôi phải thừa nhận rằng làn sóng cuồng AI này đã khiến Nvidia của Huang Renxun trở nên đầy đủ.
02. Không thể để Nvidia tận hưởng sức mạnh tính toán một cách điên cuồng
"Nvidia sẽ không độc quyền về chip đào tạo và suy luận quy mô lớn mãi mãi."
Đó là phản hồi của CEO Tesla Elon Musk trước dòng tweet của Adam D'Angelo, CEO của trang hỏi đáp xã hội và thị trường kiến thức trực tuyến Quora, người đã viết: "Một lý do khiến sự bùng nổ AI bị đánh giá thấp là sự thiếu hụt GPU/TPU. dẫn đến nhiều hạn chế đối với việc ra mắt sản phẩm và đào tạo người mẫu, nhưng không có điều nào trong số này là rõ ràng. Thay vào đó, chúng tôi thấy giá cổ phiếu của Nvidia tăng vọt. Một khi cung gặp cầu, mọi thứ sẽ tăng tốc."
Một cơn bão đang đến.
Sự điên cuồng của AI tập trung vào các mô hình lớn có thể thúc đẩy thị trường điện toán lớn đến mức nào? Soochow Securities tin rằng nhu cầu về sức mạnh tính toán của các mô hình AI tiếp tục mở rộng, mở ra nhu cầu thị trường về chip điện toán hiệu năng cao, ước tính quy mô thị trường chip AI của nước tôi sẽ đạt 178 tỷ nhân dân tệ vào năm 2025 và tốc độ tăng trưởng kép hàng năm giai đoạn 2019 - 2025 đạt 42,9%. Từ góc độ quy mô thị trường, chip AI đang ở giai đoạn sơ khai nhưng chúng có tiềm năng phát triển rất lớn.
Chip AI là một khái niệm rộng, thường dùng để chỉ một mô-đun được sử dụng đặc biệt để xử lý các tác vụ điện toán trong các ứng dụng trí tuệ nhân tạo. Nó là một phần cứng tác vụ điện toán ra đời trong thời đại ứng dụng trí tuệ nhân tạo phát triển nhanh chóng. Tất cả các chip dành cho trí tuệ nhân tạo các ứng dụng được gọi là chip AI. Có ba tuyến kỹ thuật chính: mục đích chung (GPU), bán tùy chỉnh (FPGA) và tùy chỉnh (ASIC).
Từ góc độ đào tạo mô hình quy mô lớn, tinh chỉnh dựa trên kịch bản và các kịch bản ứng dụng suy luận, sức mạnh tính toán không đồng nhất được cung cấp bởi chip CPU+AI, khả năng tính toán song song vượt trội và băng thông kết nối cao có thể hỗ trợ hiệu quả tối đa của điện toán AI và trở thành một giải pháp chủ đạo thông minh cho điện toán.
Về thị phần, theo iResearch, đến năm 2027, thị trường chip AI của Trung Quốc dự kiến đạt 216,4 tỷ nhân dân tệ. Với việc tối ưu hóa các mô hình AI được triển khai, tỷ lệ chip suy luận AI sẽ tăng lên từng ngày. Vào năm 2022, chip đào tạo AI và chip lý luận AI của Trung Quốc sẽ lần lượt chiếm 47,2% và 52,8%.
Mặc dù sự bùng nổ của các mô hình quy mô lớn trong nước có thể gây ra khoảng cách về sức mạnh tính toán, nhưng việc các nhà sản xuất chip trong nước được hưởng lợi từ việc thay thế trong nước chỉ là vấn đề thời gian. Với tư cách là nhà phát triển chip đào tạo AI, Cambrian, "cổ phiếu chip AI đầu tiên", một lần nữa thu hút sự chú ý của thị trường và giá cổ phiếu của nó không ngừng tăng lên. Giá trị thị trường mới nhất đã vượt quá 90 tỷ.
Trong dòng sản phẩm đám mây, Cambricon đã ra mắt bốn thế hệ sản phẩm chip: Siyuan 100 vào năm 2018, Siyuan 270 vào năm 2019, Siyuan 290 (phương tiện) vào năm 2020 và dòng Siyuan 370 ra mắt vào năm 2021. Nó được sử dụng để hỗ trợ các tác vụ xử lý trí tuệ nhân tạo với sự tăng trưởng nhanh chóng về độ phức tạp và thông lượng dữ liệu trong các kịch bản trung tâm dữ liệu và điện toán đám mây. Ngoài ra, Cambrian còn có một sản phẩm đang được nghiên cứu là Siyuan 590, sản phẩm này vẫn chưa được công bố. Ngoài ra, vào cuối năm 2022, dòng Siyuan 370 và sản phẩm Baidu Flying Paddle của AIGC sẽ hoàn thành thử nghiệm tương thích Cấp II.
Tuy nhiên, liệu các công ty mô hình quy mô lớn trong nước có áp dụng chip Cambrian hay không vẫn chưa nhận được thông tin chính xác. "Trong lĩnh vực chip AI cao cấp, các nhà sản xuất trong nước đang ở giai đoạn sơ khai và nhiều thứ cần thời gian và tiền bạc để xác minh." Một kỹ sư chip cao cấp tiết lộ. Ngay cả chip của các công ty như Huawei, Baidu và Haiguang Information cũng có khoảng cách rõ ràng với sản phẩm của Nvidia.
Ai đó đã từng thẳng thắn nói rằng khoảng cách giữa Nvidia và các nhà sản xuất chip khác chính là sự khác biệt giữa viện sĩ và học sinh trung học. Như Huang Renxun đã nói, Nvidia "đã chạy", và các nhà sản xuất chip khác muốn vượt mặt những gã khổng lồ chỉ có thể điên cuồng chạy.
03. "Trò chơi vương quyền" đằng sau mô hình AI lớn
Ngoài Nvidia, AMD, một gã khổng lồ GPU khác, gần đây cũng đã có hành động.
Mới đây AMD đã ra mắt card tăng tốc mới nhất Tại địa điểm hội thảo nơi AMD ra mắt card tăng tốc mới nhất Instinct MI300X, một dòng chữ được đánh đặc biệt trên PPT - dành riêng cho các mẫu ngôn ngữ lớn, được giới chuyên môn coi như một lời tuyên bố trực tiếp. của cuộc chiến chống lại Nvidia!
Sê-ri MI300 trong đó có MI300X là một sê-ri thẻ tăng tốc APU mới nhất do AMD tạo ra cho AI và HPC. Trong số đó, MI300A là "mẫu cơ bản" và MI300X là "mẫu được tối ưu hóa cho mẫu lớn" với hiệu suất phần cứng cao hơn.
Hiện tại, MI300A đã được lấy mẫu và ước tính sẽ sớm có hàng để mua; thẻ chuyên dụng quy mô lớn MI300X và nền tảng máy tính AMD Instinct tích hợp 8 MI300X dự kiến sẽ được lấy mẫu vào quý 3 năm nay năm, và sẽ được đưa ra trong quý IV.
Trong vài năm trở lại đây, so với những bước tiến lớn của Nvidia trong lĩnh vực AI, hành động của AMD có vẻ hơi chậm chạp. Như Eric Jang, Giám đốc điều hành của DeepBrain AI, cho biết, ông ấy cảm thấy rằng AMD đã khiến ông ấy thất vọng trong vài năm qua và không có gì thay đổi trong 5 năm qua. Nhất là trong thời điểm AIGC bùng phát, nếu AMD không nỗ lực theo kịp thì khoảng cách chỉ ngày càng nới rộng.
Với sự ra mắt của dòng sản phẩm MI300 của AMD, cuối cùng chúng ta cũng có thể thấy AMD và Nvidia đối đầu trực diện.
Trong hội nghị AMD này, giá cổ phiếu của nó không tăng mà lại giảm. Ngược lại, giá cổ phiếu của Nvidia cũng tăng một cách chóng mặt. Tâm lý thị trường không có gì khó hiểu, bởi trong lĩnh vực công nghệ cao, nhất là ở các thị trường mới nổi, việc bắt kịp từng bước và giữ thế mạnh đang trở thành một logic chung trong thị trường thương mại.
Nhưng trên thực tế, sau khi nghiên cứu kỹ lưỡng các nguyên nhân, có thể thấy rằng lý do chính khiến Nvidia độc quyền thị trường chip đào tạo trí tuệ nhân tạo là do họ tự phát triển hệ sinh thái CUDA. Do đó, nếu AMD MI300 muốn thay thế Nvidia, thì trước tiên nó phải tương thích với hệ sinh thái CUDA của Nvidia, AMD đã ra mắt hệ sinh thái ROCm cho mục đích này và đạt được khả năng tương thích hoàn toàn với CUDA thông qua HIP, do đó giảm chi phí đã biết cho người dùng.
Về vấn đề này, Murong Yi, một blogger đầu tư nổi tiếng, tin rằng khó khăn khi đi theo con đường tương thích với NVIDIA CUDA là tốc độ lặp lại cập nhật của nó không bao giờ có thể theo kịp CUDA và rất khó để đạt được khả năng tương thích hoàn toàn, đó là , một mặt, việc lặp lại luôn chậm hơn một bước. GPU Nvidia lặp lại nhanh chóng trên kiến trúc vi mô và bộ hướng dẫn, đồng thời các bản cập nhật chức năng tương ứng được yêu cầu ở nhiều nơi trên ngăn xếp phần mềm phía trên, nhưng AMD không thể biết lộ trình sản phẩm của Nvidia và các bản cập nhật phần mềm sẽ luôn chậm hơn một bước so với Nvidia (ví dụ: AMD có thể mới công bố hỗ trợ CUDA11, nhưng Nvidia đã tung ra CUDA12), mặt khác, khó tương thích hoàn toàn sẽ làm tăng khối lượng công việc của các nhà phát triển. rất phức tạp và AMD cần đầu tư rất nhiều nhân lực và vật lực, sẽ mất nhiều năm thậm chí hơn mười năm để bắt kịp, bởi vì chắc chắn sẽ có sự khác biệt về chức năng, và nếu việc tương thích không được thực hiện tốt sẽ ảnh hưởng đến buổi biểu diễn. Do đó, đây cũng là những lý do chính khiến mọi người không mua nó.
Theo ước tính của Khaveen Investments, thị phần GPU trung tâm dữ liệu của Nvidia sẽ đạt 88% vào năm 2022, AMD và Intel sẽ chia phần còn lại.
Kể từ khi OpenAI phát hành ChatGPT vào năm ngoái, một vòng cách mạng công nghệ mới đã tiếp tục lên men. Có thể nói, không có tiến bộ công nghệ nào thu hút sự chú ý của thế giới nhiều như ChatGPT trong nhiều năm qua.
Nhiều công ty công nghệ, tổ chức nghiên cứu khoa học, cao đẳng và đại học trong và ngoài nước đang theo sát, trong vòng chưa đầy nửa năm, rất nhiều công ty mới thành lập cho các ứng dụng mô hình quy mô lớn đã xuất hiện và quy mô tài chính đã tăng lên gấp nhiều lần đạt mức cao mới.
Theo blogger wgang, Baidu, iFLYTEK, 4Paradigm, Đại học Thanh Hoa, Fudan và các nhà máy lớn khác trong nước, các công ty mới thành lập và các tổ chức nghiên cứu khoa học đã liên tiếp phát hành các sản phẩm mô hình quy mô lớn:
Có thể thấy, không chỉ trong lĩnh vực chung mà trong các kịch bản ngành cụ thể, đặc biệt là một số lĩnh vực mang tính chuyên nghiệp cao, hàm lượng tri thức cao, các hãng công nghệ cũng tung ra những mô hình lớn theo ngành dọc. Ví dụ: Baijiayun (RTC), một công ty niêm yết tại Hoa Kỳ, gần đây đã phát hành sản phẩm AIGC "Market Easy" dựa trên hiểu biết sâu sắc về nhu cầu dịch vụ của doanh nghiệp. Đây cũng là công cụ mô hình quy mô lớn GPT đầu tiên phù hợp với các kịch bản sản xuất nội dung của bộ phận marketing doanh nghiệp.
Một số người trong ngành cười nói: "Các người mẫu quy mô lớn trong nước đã hình thành tình trạng các nhóm người mẫu nhảy múa điên cuồng và hàng trăm người mẫu cạnh tranh. Dự kiến sẽ có hơn 100 người mẫu quy mô lớn vào cuối năm năm."
Tuy nhiên, việc phát triển mô hình lớn cần có sự hỗ trợ của 3 yếu tố quan trọng: thuật toán, sức mạnh tính toán và dữ liệu, sức mạnh tính toán là động cơ năng lượng quan trọng để đào tạo mô hình lớn, đồng thời cũng là rào cản lớn đối với sự phát triển của ngành mô hình lớn ở Trung Quốc.
Khả năng chip ảnh hưởng trực tiếp đến hiệu quả và tốc độ đào tạo máy tính cao. Như đã đề cập ở trên, mặc dù các sản phẩm mô hình quy mô lớn trong nước thường xuyên xuất hiện, nhưng đánh giá từ các chip đằng sau chúng, tất cả các nền tảng này đều sử dụng GPU Nvidia A100 và H100 hoặc phiên bản A800 và A800 được Nvidia ra mắt đặc biệt sau lệnh cấm vào năm ngoái. băng thông của hai bộ xử lý này bằng khoảng 3/4 và khoảng một nửa so với phiên bản gốc, tránh tiêu chuẩn giới hạn của GPU hiệu suất cao.
Vào tháng 3 năm nay, Tencent đã đi đầu trong việc thông báo rằng họ đã sử dụng H800.Hãng đã sử dụng H800 trong phiên bản mới của dịch vụ điện toán hiệu năng cao do Tencent Cloud phát hành và cho biết đây là phiên bản đầu tiên ở Trung Quốc.
Alibaba Cloud cũng đã đề xuất nội bộ vào tháng 5 năm nay rằng "Trận chiến điện toán thông minh" sẽ là trận chiến số một trong năm nay và số lượng GPU đã trở thành một chỉ số quan trọng trong trận chiến của nó.
Ngoài ra, Shangtang cũng thông báo rằng gần 30.000 GPU đã được triển khai trong cụm điện toán "thiết bị lớn AI" của mình, trong đó 10.000 GPU là Nvidia A100. Byte và Meituan phân bổ trực tiếp GPU từ các nhóm kinh doanh khác của công ty để đào tạo mô hình lớn. Một số nhà sản xuất thậm chí đã tìm kiếm các sản phẩm máy hoàn chỉnh khác nhau có thể loại bỏ A100 trên thị trường kể từ nửa cuối năm 2022, với mục đích duy nhất là kiếm được chip GPU. "Có quá nhiều máy móc và không đủ chỗ để cất chúng."
Được biết, các công ty công nghệ hàng đầu trong nước đã đầu tư rất nhiều vào AI và điện toán đám mây, trong thời gian qua, số A100 tích lũy đã lên tới hàng chục nghìn.
Đồng thời, các công ty công nghệ lớn của Trung Quốc vẫn đang tham gia vào một vòng cạnh tranh mua sắm mới.
Theo một nhà cung cấp dịch vụ đám mây, các công ty lớn như Byte và Alibaba chủ yếu đàm phán mua hàng trực tiếp với nhà máy gốc của Nvidia, các đại lý và chợ đồ cũ khó đáp ứng được nhu cầu quá lớn của họ.
Như đã đề cập ở trên, ByteDance đã đặt hàng hơn 1 tỷ đô la Mỹ các sản phẩm GPU từ Nvidia trong năm nay.Chỉ riêng khối lượng mua Byte trong năm nay đã gần bằng tổng doanh số bán GPU thương mại của Nvidia tại Trung Quốc vào năm ngoái. Theo báo cáo, có một công ty lớn khác với đơn đặt hàng ít nhất hơn 1 tỷ nhân dân tệ.
Có thể thấy các hãng công nghệ lớn của Trung Quốc đang rất gấp rút mua GPU.
Không chỉ các công ty trong nước, mà các khách hàng lớn nước ngoài cũng có nhu cầu rất cao về chip A100/H100 của Nvidia. Theo thống kê, Baidu, công ty đầu tiên bắt đầu thử nghiệm các sản phẩm giống ChatGPT, có chi phí vốn hàng năm từ 800 triệu đến 2 tỷ USD kể từ năm 2020 và của Alibaba từ 6 tỷ đến 8 tỷ USD. Trong cùng thời kỳ, Amazon, Meta, Google và Microsoft, bốn công ty công nghệ Mỹ đã xây dựng trung tâm dữ liệu của riêng họ, có chi phí vốn hàng năm ít nhất là 15 tỷ đô la Mỹ.
Hiện tại, khả năng hiển thị các đơn đặt hàng của Nvidia đã đến năm 2024 và các chip cao cấp đang bị thiếu hụt. Với tiến độ sản xuất hiện tại, thậm chí A800/H800 cũng phải đến cuối năm nay hoặc năm sau mới được giao hàng. Trước mắt, từ mức độ phổ biến của nó, điều duy nhất ảnh hưởng đến doanh số GPU cao cấp của Nvidia có thể là năng lực sản xuất của TSMC.
04. Đằng sau Nvidia "điên rồ", chip nội có đủ mạnh về cả phần cứng lẫn phần mềm?
Đánh giá về việc cung cấp chip cho các sản phẩm mô hình quy mô lớn, hiện tại không có sản phẩm thay thế nào cho A100, H100 và các phiên bản rút gọn của A800 và H800 được cung cấp đặc biệt cho Trung Quốc về đào tạo mô hình quy mô lớn AI.
Vậy tại sao trong đợt bùng nổ GPT này, Nvidia lại dẫn đầu và thể hiện tốt?
Zhang Gaonan, đối tác quản lý của Huaying Capital, cho biết một mặt là do Nvidia có bố cục sớm nhất và cấu trúc vi nhân của nó cũng đã phát triển và cải thiện từ thế hệ này sang thế hệ khác. Giờ đây, cho dù đó là về mặt đồng thời, tốc độ bus hay hỗ trợ trưởng thành của hạt nhân vi mô để chuyển đổi ma trận, các khả năng của nó đã rất hiệu quả, bao gồm cả việc cung cấp đồng thời một nền tảng điện toán CUDA rất hoàn chỉnh, trên thực tế đã trở thành một tiêu chuẩn công nghiệp tiềm năng cho thuật toán học sâu.Các cơ sở hỗ trợ của toàn bộ chuỗi công nghiệp cũng rất hoàn chỉnh, và các rào cản cạnh tranh toàn diện và độ sâu của hào là cực kỳ cao.
Tóm lại, sức mạnh không thể thay thế của GPU Nvidia hiện nay đến từ cơ chế đào tạo của các mô hình lớn, các bước cốt lõi của nó là đào tạo trước và tinh chỉnh, trước là đặt nền móng, tương đương với việc học phổ thông Tốt nghiệp đại học ; cái sau được tối ưu hóa cho các kịch bản và nhiệm vụ cụ thể để cải thiện hiệu suất công việc.
Vậy chip GPU nội địa có đáp ứng được yêu cầu về sức mạnh tính toán của các dòng máy lớn hay không?
Trong các ứng dụng thực tế, nhu cầu về sức mạnh tính toán của mô hình lớn được chia thành hai giai đoạn, một là quá trình đào tạo mô hình lớn ChatGPT, hai là quá trình lý luận để thương mại hóa mô hình. Đó là, đào tạo AI là để tạo ra các mô hình và lý luận của AI là sử dụng các mô hình và đào tạo yêu cầu hiệu suất chip cao hơn.
Dựa trên điều này, các công ty chip AI trong nước tiếp tục ra đời, lần lượt tung sản phẩm ra thị trường. Các công ty như Suiyuan Technology, Biren Technology, Tianshu Zhixin và Cambrian đều đã tung ra các sản phẩm GPU đám mây của riêng họ và các chỉ số hiệu suất lý thuyết không hề yếu. Chip DCU "Shensu số 1" của Haiguang Information có hệ sinh thái phần cứng và phần mềm tương đối hoàn chỉnh và tương thích với kiến trúc CUDA. Và các công ty Internet lớn như Tencent, Baidu, Ali cũng đang triển khai mạnh mẽ trong lĩnh vực chip AI thông qua đầu tư và ươm tạo.
Trong số đó, đào tạo mô hình quy mô lớn cần xử lý thông tin có độ chi tiết cao, đòi hỏi độ chính xác và tốc độ tính toán cao hơn của chip đào tạo đám mây, hiện tại hầu hết các GPU trong nước đều không có khả năng hỗ trợ đào tạo mô hình quy mô lớn. cho công việc suy luận trên đám mây không yêu cầu độ chi tiết thông tin cao như vậy.
Vào tháng 3 năm nay, Baidu Li Yanhong đã công khai tuyên bố rằng chip Kunlun hiện rất phù hợp để suy luận về các mô hình lớn và sẽ phù hợp để đào tạo trong tương lai.
Zou Wei, phó chủ tịch của Tianshu Zhixin, cũng nói với Xinchao IC rằng vẫn còn một khoảng cách nhất định giữa chip nội địa và các sản phẩm mới nhất của Nvidia, nhưng về mặt tính toán suy luận, chip nội địa có thể đạt được hiệu suất tương đương với các sản phẩm phổ thông và với ứng dụng của trí tuệ nhân tạo Phổ biến, nhu cầu thị trường về chip lý luận sẽ đẩy nhanh tốc độ tăng trưởng và với việc mở rộng nhu cầu, chip trong nước cũng sẽ có thị trường lớn hơn.
Một người khác trong ngành không muốn nêu tên cho biết: "Các sản phẩm GPU đa năng trong nước đúng là có khoảng cách với các sản phẩm chủ lực quốc tế trong việc đáp ứng đào tạo mô hình quy mô lớn, nhưng không phải là không thể khắc phục được. Chỉ là ngành đã có không thiết kế theo hướng mô hình đại trà trong định nghĩa sản phẩm”.
Hiện tại, những người thực hành trong ngành đang thực hiện những khám phá và nỗ lực có liên quan, chẳng hạn như suy nghĩ về việc liệu sức mạnh tính toán của chip có thể được cải thiện thông qua các chiplet và bao bì tiên tiến hay không. Hiện tại, các công ty GPU trong nước đang phát triển và bố trí chip trong lĩnh vực mô hình lớn.
Từ góc độ vốn, Zhang Gaonan, đối tác quản lý của Huaying Capital, nói với Xinchao IC rằng Huaying đã rất chú ý đến cơ sở hạ tầng điện toán trong một thời gian dài.Cho dù đó là GPU, DPU hay điện toán lai quang điện tiên tiến hơn, điện toán lượng tử , có mục tiêu nghiên cứu và bố trí. Nhìn chung, nó tập trung vào cơ sở hạ tầng điện toán đa năng, chẳng hạn như FPGA và điện toán cạnh. Ngược lại, hiện tại, nhiều chip sức mạnh tính toán xung quanh học sâu, thuật toán đặc biệt, tối ưu hóa sức mạnh tính toán cục bộ, v.v. không phải là trọng tâm xem xét của nó.
Thực tế, ngoài khoảng cách về hiệu năng phần cứng, hệ sinh thái phần mềm cũng là một điểm thiếu sót của các nhà sản xuất chip AI trong nước.
Con chip cần thích ứng với nhiều cấp độ như hệ thống phần cứng, chuỗi công cụ, trình biên dịch, v.v., và cần khả năng thích ứng mạnh mẽ, nếu không, con chip này có thể chạy 90% sức mạnh tính toán trong một cảnh nhưng chỉ có thể chạy 90% trong một cảnh khác phân cảnh.Chạy hết 80% hiệu suất kịch bản.
Như đã đề cập ở trên, Nvidia rõ ràng có lợi thế về mặt này. Đầu năm 2006, Nvidia đã tung ra nền tảng điện toán CUDA, là một công cụ phần mềm tính toán song song. Khung CUDA tích hợp rất nhiều mã cần thiết để gọi sức mạnh tính toán GPU. Các kỹ sư có thể trực tiếp sử dụng các mã này mà không cần viết từng mã một. Các nhà phát triển có thể sử dụng CUDA để thực hiện đào tạo AI và suy luận hiệu quả hơn, đồng thời tận dụng tốt hơn sức mạnh tính toán của GPU. Ngày nay, CUDA đã trở thành một cơ sở hạ tầng AI và các khung, thư viện và công cụ AI chính thống đều được phát triển dựa trên CUDA.
Không có bộ ngôn ngữ lập trình này, các kỹ sư phần mềm sẽ cực kỳ khó nhận ra giá trị của phần cứng.
Nếu GPU và chip AI không phải Nvidia muốn truy cập CUDA, họ cần cung cấp phần mềm thích ứng của riêng mình. Theo những người trong ngành, tôi đã liên hệ với một nhà sản xuất GPU không phải của NVIDIA, mặc dù báo giá chip và dịch vụ của họ thấp hơn NVIDIA và hứa hẹn sẽ cung cấp dịch vụ kịp thời hơn, nhưng tổng chi phí đào tạo và phát triển khi sử dụng GPU của họ sẽ cao hơn NVIDIA. sự không chắc chắn của kết quả và thời gian phát triển.
Mặc dù GPU Nvidia đắt tiền, nhưng chúng thực sự rẻ nhất để sử dụng. Đối với các công ty có ý định nắm bắt cơ hội của các mô hình quy mô lớn, tiền thường không phải là vấn đề và thời gian là tài nguyên quý giá hơn, mọi người phải có đủ sức mạnh tính toán tiên tiến càng sớm càng tốt để đảm bảo lợi thế của người đi trước.
Do đó, đối với các nhà cung cấp chip trong nước, ngay cả khi một sản phẩm có sức mạnh tính toán tương đương có thể được xếp chồng lên nhau bằng cách xếp chồng chip, khách hàng sẽ khó chấp nhận việc điều chỉnh và tương thích phần mềm hơn. Ngoài ra, từ góc độ vận hành máy chủ, chi phí bo mạch chủ, tiền điện, chi phí vận hành và các vấn đề như tiêu thụ điện năng và tản nhiệt cần được xem xét sẽ làm tăng đáng kể chi phí vận hành của trung tâm dữ liệu.
Do tài nguyên sức mạnh tính toán thường cần được thể hiện dưới dạng tổng hợp, nên các trung tâm dữ liệu thường sẵn sàng sử dụng cùng một con chip hoặc các con chip từ cùng một công ty để giảm bớt khó khăn trong việc tổng hợp sức mạnh tính toán.
Việc giải phóng sức mạnh tính toán đòi hỏi sự hợp tác phức tạp giữa phần mềm và phần cứng để biến sức mạnh tính toán lý thuyết của chip thành sức mạnh tính toán hiệu quả. Đối với khách hàng, việc sử dụng chip AI trong nước không dễ dàng, việc thay thế chip AI trên đám mây đòi hỏi chi phí di chuyển và rủi ro nhất định, trừ khi sản phẩm mới có lợi thế về hiệu suất hoặc có thể cung cấp các vấn đề mà người khác không thể giải quyết ở một khía cạnh nhất định. của khách hàng để thay thế là rất thấp.
Là nhà cung cấp GPU duy nhất có thể thực sự xử lý ChatGPT, Nvidia xứng đáng là "ông hoàng sức mạnh điện toán AI". Sáu năm trước, Huang Renxun đã đích thân giao siêu máy tính đầu tiên được trang bị chip A100 cho OpenAI, giúp OpenAI tạo ra ChatGPT và trở thành người dẫn đầu kỷ nguyên AI.
Tuy nhiên, kể từ khi Hoa Kỳ thực hiện các biện pháp kiểm soát xuất khẩu vào năm ngoái, Nvidia đã bị cấm xuất khẩu hai chip GPU tiên tiến nhất của mình là H100 và A100 sang Trung Quốc. Đây chắc chắn là một đòn giáng mạnh vào các công ty ứng dụng hạ nguồn.
Từ góc độ bảo mật và tự kiểm soát, điều này cũng mang đến một cơ hội mới cho các công ty chip trong nước. Mặc dù chip trong nước thua kém những gã khổng lồ trong ngành như Nvidia và AMD về hiệu suất và hệ sinh thái phần mềm, do quan hệ thương mại quốc tế phức tạp và các yếu tố địa chính trị, "sự thay thế trong nước" đã trở thành chủ đề chính cho sự phát triển của ngành công nghiệp bán dẫn trong nước.
05. Kết luận
Mỗi lần gia tăng sức mạnh tính toán sẽ tạo ra một làn sóng thay đổi công nghệ và công nghiệp: CPU đưa nhân loại vào kỷ nguyên PC, chip di động tạo ra làn sóng Internet di động và chip AI phá vỡ nút cổ chai sức mạnh tính toán kéo dài hàng thập kỷ trong AI. ngành công nghiệp.
Hôm nay, "Khoảnh khắc AI iPhone" đã đến và con đường dẫn đến kỷ nguyên tiếp theo có thể đã ở trước mắt chúng ta.
Mặc dù các lĩnh vực chip AI và hệ thống phần mềm trong các trung tâm dữ liệu này vẫn do các nhà sản xuất nước ngoài thống trị, nhưng cánh cửa thị trường cho "nội địa hóa sức mạnh tính toán" có thể đang mở ra ngay bây giờ.