Với việc thắt chặt chi tiêu cho đám mây đối với phần mềm doanh nghiệp Internet, tốc độ tăng trưởng chậm lại dần trở thành một đám mây đen trên đầu các nhà cung cấp đám mây.
Sự ra đời của ChatGPT đã phá vỡ nút cổ chai này và AI sẽ định hình lại phần mềm. Khách hàng của các nhà cung cấp đám mây—các công ty phần mềm đang tích cực nhúng các khả năng AI do các mô hình lớn mang lại vào quy trình công việc hiện có để hoàn thành quá trình tự động hóa cấp cao hơn.
Với việc khách hàng đám mây mới đang dần cạn kiệt, các công ty phần mềm không còn lên đám mây chỉ vì mục đích lên đám mây nữa mà cố gắng sử dụng AI để cải thiện năng suất. **"Đây là mức tăng lớn nhất trong thị trường điện toán đám mây trong mười năm tới. Cơ sở hạ tầng điện toán là người hưởng lợi tuyệt đối từ mô hình lớn." **Một người trong ngành điện toán đám mây đã làm việc trong ngành hơn mười năm giải thích cho Geek Park.
Trước triển vọng như vậy, một số đại gia dịch vụ đám mây lớn ở nước ngoài—Microsoft, Amazon, Google và Oracle đã nhanh chóng thực hiện các thay đổi. **Trong vài tháng qua, những gã khổng lồ trên nền tảng đám mây đã chi tiền thật để phát triển các mô hình quy mô lớn, đầu tư chiến lược và tự phát triển chip AI... Thời đại của các mô hình quy mô lớn đang lên ngôi và họ đã nhắm mục tiêu một thế hệ khách hàng phần mềm AI mới. **
Quá khứ còn lâu mới có thể bị phá vỡ, thị trường đám mây đang được cải tổ nhanh chóng và những gã khổng lồ đã mở ra một bức màn cạnh tranh mới.
Xét cho cùng, sự suy tàn của người anh lớn trong thời đại Internet di động đang đến gần, chỉ trong vài năm, Nokia đã từ 70% thị phần điện thoại di động ở thời kỳ hoàng kim trở thành không ai quan tâm, chỉ là giữa suy nghĩ của việc đưa ra một quyết định sai lầm. Đối với mô hình lớn, ngành công nghiệp đám mây nhanh chóng đạt được sự đồng thuận: lần này AI không phải là một biến số nhỏ, xét từ tốc độ phát triển nhanh chóng của ngành, những người chơi hàng đầu hiện nay cũng có thể bị bỏ lại phía sau.
**Một nửa năm 2023 đã trôi qua, bài viết này sẽ phân loại một số gã khổng lồ đám mây lớn ở nước ngoài, đâu là mấu chốt cho sự cạnh tranh giữa các nhà cung cấp đám mây ngày nay? **
01 Nghiên cứu và phát triển chip dành riêng cho AI, bạn không thể giao hết "sự sống" của mình cho Nvidia
Sau sự ra đời của kỷ nguyên mô hình lớn, đối với các nhà cung cấp dịch vụ đám mây, nguồn tài nguyên khan hiếm nhất hiện nay là sức mạnh tính toán hay còn gọi là chip AI. **Đầu tư vào cơ sở hạ tầng cơ bản - chip tăng tốc AI, cũng đã trở thành tâm điểm cạnh tranh đầu tiên giữa các nhà cung cấp đám mây ngày nay. **
Sự khan hiếm và chi phí cao được coi là những lý do chính khiến các nhà cung cấp đám mây tăng tốc chip tự phát triển. Ngay cả những nhân vật quyền lực trong giới công nghệ như Musk cũng nhận xét rằng "thứ này (GPU Nvidia) còn khó chữa hơn cả thuốc", và đã bí mật mua 10.000 thẻ từ Nvidia cho công ty AI X.AI của mình, đồng thời nhận được rất nhiều vốn nhàn rỗi. trong Oracle.
Mức độ khan hiếm này được phản ánh trong hoạt động kinh doanh của những gã khổng lồ trên nền tảng đám mây, tương ứng trực tiếp với thiệt hại kinh doanh do "kẹt cổ". Ngay cả Microsoft, công ty hành động trước, cũng đã bị dính tin đồn rằng do thiếu GPU, nhóm R&D AI nội bộ triển khai hệ thống phân phối GPU, nhiều kế hoạch mới bị trì hoãn và khách hàng mới phải xếp hàng hàng tháng trời để có được. chuyển đến Azure.
Ngay cả các tổ chức đầu tư mạo hiểm cũng phải dựa vào hàng tồn kho chip Nvidia để giành lấy các dự án. Vì lợi ích của thẻ bài N, lực lượng của tất cả các bên đã đạt đến mức "tất cả mọi thứ được sử dụng".
** Một tên gọi khác của khan hiếm là đắt đỏ. **Xét rằng mô hình lớn yêu cầu sức mạnh tính toán cao hơn mười lần, thẻ sẽ chỉ đắt hơn. Mới đây, một nhà đầu tư đã nói với Geek Park rằng: “Đầu năm, thẻ đơn A100 là 80.000, nhưng giờ đã bán tới 160.000, vẫn chưa đạt được”. đám mây khổng lồ phải trả "thuế Nvidia" sẽ chỉ là một con số thiên văn.
Thật khó để cảm thấy rằng "số phận" nằm trong tay người khác và Microsoft, công ty phổ biến nhất, có nhiều tiếng nói nhất. Một tháng trước, thông tin độc quyền đưa tin rằng Microsoft đã thành lập "Thiên Đường" 300 người để đẩy nhanh tốc độ phát triển chip AI tự phát triển. Chip máy chủ có tên mã Cascade có thể sẽ ra mắt vào đầu năm sau.
Không chỉ vì "kẹt cổ", chip tự phát triển của các nhà sản xuất đám mây, mà còn có một tầng ý nghĩa khác - GPU không nhất thiết phải là chip phù hợp nhất để chạy AI và phiên bản tự phát triển có thể tối ưu hóa các tác vụ AI cụ thể.
Phải thừa nhận rằng hầu hết các mô hình AI tiên tiến hiện nay đều được cung cấp bởi GPU, vì GPU chạy khối lượng công việc máy học tốt hơn so với bộ xử lý đa năng. **Tuy nhiên, GPU vẫn được coi là chip đa năng, không phải là nền tảng xử lý gốc thực sự cho điện toán AI. **Như Viện nghiên cứu Yuanchuan đã chỉ ra trong "Một vết nứt trong đế chế Nvidia", GPU không được sinh ra để đào tạo mạng lưới thần kinh. Trí tuệ nhân tạo càng phát triển nhanh thì những vấn đề này sẽ càng lộ ra nhiều hơn. Dựa vào CUDA và các công nghệ khác nhau để "thay đổi kỳ diệu" theo từng cảnh là một lựa chọn, nhưng nó không phải là giải pháp tối ưu.
Amazon, Google và Microsoft đã và đang phát triển các chip được gọi là ASIC - mạch tích hợp dành riêng cho ứng dụng - phù hợp hơn với trí tuệ nhân tạo. The Information đã phỏng vấn nhiều chuyên gia và nhà phân tích trong ngành công nghiệp chip và kết luận rằng GPU Nvidia đã giúp đào tạo mô hình đằng sau ChatGPT, nhưng ASIC thường thực hiện các tác vụ này nhanh hơn và tiêu thụ ít năng lượng hơn.
Như hình trên: Amazon, Microsoft, Google đều đã đề cao tầm quan trọng của chip tự phát triển nội bộ và phát triển 2 loại chip cho lĩnh vực trung tâm dữ liệu: chip điện toán tiêu chuẩn và chip dành riêng cho đào tạo và chạy máy. mô hình học tập.Những mô hình này có thể cung cấp năng lượng cho các chatbot như ChatGPT.
Hiện tại, Amazon và Google đã phát triển các ASIC tùy chỉnh cho các sản phẩm nội bộ quan trọng và đã cung cấp các chip này cho khách hàng thông qua đám mây. Kể từ năm 2019, Microsoft cũng đã nghiên cứu phát triển chip ASIC tùy chỉnh để cung cấp năng lượng cho các mô hình ngôn ngữ lớn.
Một số chip do các nhà cung cấp đám mây này phát triển, chẳng hạn như chip máy chủ Graviton của Amazon và chip dành riêng cho AI do Amazon và Google phát hành, đã có hiệu suất tương đương với chip của các nhà sản xuất chip truyền thống, theo dữ liệu hiệu suất do khách hàng trên đám mây và Microsoft công bố. Google TPU v4 nhanh hơn 1,2-1,7 lần so với Nvidia A100, đồng thời giảm mức tiêu thụ điện năng 1,3-1,9 lần.
02 Cạnh tranh đầu tư chiến lược: Đại gia chi tiền để “mua khách”
Ngoài nghiên cứu và phát triển chip, điểm mấu chốt thứ hai trong cuộc cạnh tranh của một số đại gia điện toán đám mây lớn ở nước ngoài là đầu tư vào các khoản đầu tư chiến lược nước ngoài để giành lấy khách hàng AI và các dự án AI. **
So với đầu tư mạo hiểm, đầu tư chiến lược của các đại gia có lợi thế tuyệt đối. Sự kết hợp giữa OpenAI và Microsoft là một ví dụ điển hình, mở ra tiền lệ cho các mô hình quy mô lớn và đầu tư chiến lược. Điều này là do các rào cản tài nguyên cần thiết cho các mô hình lớn và các ứng dụng liên quan là rất cao, chỉ có tiền, số tiền có hạn, là không đủ để giành lấy các dự án AI. Rốt cuộc, Google, Microsoft, AWS, Oracle hay Nvidia không chỉ có thể viết những tấm séc khổng lồ mà còn cung cấp các tài nguyên khan hiếm như tín dụng đám mây và GPU.
Từ quan điểm này, việc giành lấy các dự án và giành lấy khách hàng đều xảy ra giữa những người khổng lồ trên nền tảng đám mây và không có đối thủ nào khác. Họ đang chơi một trò chơi mới — tìm kiếm lời hứa từ các công ty AI rằng họ sẽ sử dụng dịch vụ đám mây của họ thay vì dịch vụ của đối thủ cạnh tranh.
Microsoft đang ngồi trên vị trí nhà cung cấp dịch vụ đám mây độc quyền của OpenAI Trong khi chi trả hóa đơn đám mây khổng lồ cho OpenAI, Microsoft đã đánh đổi hàng loạt quyền lợi đáng ghen tị như vốn chủ sở hữu của OpenAI và quyền ưu tiên sản phẩm.
**Các đối thủ của Microsoft cũng đang tranh giành các khách hàng AI khác. **Các nhà cung cấp dịch vụ đám mây này cung cấp chiết khấu và tín dụng sâu cho các công ty AI để giành được công việc kinh doanh của họ. Các nhà phê bình đã chỉ ra rằng điều này giống như mua khách hàng, mặc dù thực tế lấy vốn chủ sở hữu trong tương lai hoặc khách hàng hiện tại không phải là hiếm trong thế giới phần mềm doanh nghiệp.
Oracle cũng đã cung cấp các khoản tín dụng điện toán trị giá hàng trăm nghìn đô la để khuyến khích các công ty khởi nghiệp AI thuê máy chủ đám mây của Oracle, The Information đã đưa tin trước đây.
Google có thể là công ty tích cực nhất trong số các nhà cung cấp đám mây lớn này, cung cấp cho các công ty khởi nghiệp AI kết hợp tiền mặt và tín dụng Google Cloud để đổi lấy vốn chủ sở hữu. Đầu năm nay, Google đã đầu tư 400 triệu USD vào Anthropic, một trong những thách thức kinh doanh chính của OpenAI. Google Cloud cho biết vào tháng 2 rằng họ đã trở thành nhà cung cấp đám mây "ưa thích" của Anthropic.
Gần đây, Google đã đầu tư 100 triệu USD vào Runway, một công ty AI trong lĩnh vực "Vensheng Video". Nhưng trước đó, Amazon AWS đã chào hàng Runway như một khách hàng khởi nghiệp AI quan trọng. Vào tháng 3 năm nay, AWS và Runway đã công bố thiết lập quan hệ đối tác chiến lược lâu dài, trở thành "nhà cung cấp đám mây ưa thích" của họ. Giờ đây, Runway có vẻ sẽ là một trong những "con tốt thí" trong cuộc đọ sức của Google với Amazon, bởi Runway cũng được cho là sẽ thuê máy chủ đám mây của Google.
Trước đó, Google Cloud cũng đã công bố thiết lập quan hệ đối tác với hai công ty AI đình đám khác là: Midjourney trong lĩnh vực đồ thị Vincent và robot trò chuyện App Character.ai, vốn trước đây là khách hàng đám mây chủ chốt của Oracle.
Vẫn còn quá sớm để biết liệu những thỏa thuận này có giúp Google bắt kịp các đối thủ điện toán đám mây lớn hơn là AWS và Microsoft hay không, nhưng Google Cloud đang trên đà cải thiện.
Trong số 75 công ty phần mềm (AI) trong cơ sở dữ liệu Thông tin, Google cung cấp một số dịch vụ đám mây cho ít nhất 17 công ty, nhiều hơn bất kỳ nhà cung cấp đám mây nào khác. Amazon cũng không kém cạnh với ít nhất 15 công ty sử dụng AWS cho điện toán đám mây. Microsoft và Oracle lần lượt cung cấp dịch vụ đám mây cho sáu công ty và bốn công ty. Tất nhiên, sử dụng nhiều đám mây cũng là một thói quen trong ngành và ít nhất 12 trong số 75 công ty này sử dụng kết hợp nhiều nhà cung cấp đám mây.
03 mô hình lớn là chìa khóa thực sự để thắng hay thua
Sức mạnh máy tính và đầu tư chiến đấu là những điểm cao phải được tranh cãi trong giai đoạn đầu của cuộc chiến đám mây này. Nhưng về lâu dài, mô hình lớn mới là chìa khóa thực sự dẫn đến thành công trong cạnh tranh thị trường.
Khả năng trở thành người dẫn đầu của Microsoft là nhờ vào sự hợp tác với OpenAI, cùng với khả năng kỹ thuật xuất sắc của nhóm Microsoft, GPT-4 đã được nhúng vào "thùng gia đình" của Microsoft trong vòng vài tháng. Trong sáu tháng qua, Microsoft lần đầu tiên tận dụng ưu tiên sử dụng các sản phẩm OpenAI và việc giảm giá các sản phẩm phần mềm doanh nghiệp để chiếm lĩnh nhiều thị trường đám mây hơn. Sau đó dựa vào việc nâng cấp dòng sản phẩm lên Microsoft 365 Copilot để tăng giá nhằm thu được doanh thu lớn hơn.
Theo nghiên cứu của Yunqi Capital, mô hình cơ bản của Microsoft về cơ bản dựa trên OpenAI và sau khi tiếp cận mô hình lớn, Microsoft bắt đầu đóng gói và bán Teams, Power BI, Azure và các sản phẩm lớp ứng dụng khác với giá thấp hơn.
Giám đốc tài chính của Microsoft, Amy Hood, đã nói với các nhà đầu tư vào tháng 4 rằng OpenAI sẽ tạo ra doanh thu cho Azure khi nhiều người bắt đầu sử dụng dịch vụ của họ.
Các báo cáo mới chỉ ra rằng Microsoft đang tính phí bảo hiểm 40% cho một số khách hàng Office 365 để kiểm tra các khả năng AI tự động hóa các tác vụ như viết văn bản trong tài liệu Word và tạo trang trình bày PowerPoint và ít nhất 100 khách hàng đã trả phí cố định lên tới 100.000 USD. Dữ liệu cho thấy rằng trong vòng một tháng kể từ khi ra mắt, Microsoft đã kiếm được hơn 60 triệu USD doanh thu từ các chức năng AI của Microsoft 365 Copilot.
**Trái ngược hoàn toàn với Microsoft, Amazon Cloud, công ty dẫn đầu một thời, chậm một bước so với mô hình lớn, ngày nay đang phải đối mặt với những thách thức gay gắt hơn. **
AWS là nhà phát triển sớm các dịch vụ đám mây AI và nó đã có mặt từ khoảng năm 2016. Nhưng khách hàng không thấy các dịch vụ, bao gồm nhận dạng khuôn mặt, chuyển đổi văn bản thành giọng nói sống động như thật và các dạng chatbot nguyên thủy cho các nhiệm vụ như dịch vụ khách hàng, là rất hữu ích. AWS cũng đã ra mắt SagaMaker, một công cụ kỹ thuật số AI dành cho các kỹ sư vào năm 2017, để giúp họ phát triển và sử dụng các mô hình máy học, từng trở thành sản phẩm AI quan trọng nhất của AWS.
Tuy nhiên, trong những năm tiếp theo, các sản phẩm AI của AWS không theo kịp làn sóng mô hình ngôn ngữ lớn.Từ tháng 11 năm 2021, Microsoft bắt đầu bán các sản phẩm AI được phát triển dựa trên loạt mô hình GPT dành cho khách hàng doanh nghiệp. Đồng thời, Google cũng đã giành lấy các công ty khởi nghiệp AI lớn với tư cách là khách hàng đám mây và bán phần mềm AI độc quyền cho các khách hàng đám mây của mình. Ngay cả Oracle, kẻ tụt hậu về điện toán đám mây, cũng có lợi thế riêng trong việc cung cấp tài nguyên điện toán cho các công ty khởi nghiệp AI.
AWS, muộn màng, đang cố gắng bắt kịp. Vào tháng 4, nó đã công bố một dịch vụ đám mây cho phép khách hàng sử dụng các mô hình lớn từ Phòng thí nghiệm Ổn định, Anthropic và AI 21 làm cơ sở cho các sản phẩm của riêng họ. Đổi lại, AWS sẽ chia sẻ một phần doanh thu với các đối tác này.
Tại hội nghị Google I/O 2023, CEO Sundar Pichai đã giới thiệu tiến bộ AI mới nhất của Google | Nguồn ảnh: Google's official website
**Google dậy sớm, nhưng bắt kịp muộn. **Là một nhà sản xuất lớn với bề dày kinh nghiệm trong lĩnh vực mô hình quy mô lớn, phản ứng của Google sau khi phát hành ChatGPT không hề khó chịu, hãng đã nhanh chóng tung ra robot thông minh đàm thoại Bard và mô hình ngôn ngữ quy mô lớn thế hệ mới PaLM 2 như một phản ứng Kết quả là, cuộc họp báo đã bị lật ngược trực tiếp, Tốc độ phát hành sản phẩm tiếp theo không phải là lý tưởng, điều này hoàn toàn trái ngược với khả năng kỹ thuật mạnh mẽ của Microsoft.
** Điều cuối cùng đáng nói là Oracle, vốn đã bị loại khỏi vị trí dẫn đầu trên thị trường đám mây từ rất sớm, bất ngờ có xu hướng phản công trong làn sóng bùng nổ này. **
Oracle, một kẻ chậm chân trong lĩnh vực đám mây từ lâu, đã thành công một cách đáng ngạc nhiên trong việc cho các công ty khởi nghiệp AI nổi tiếng thuê máy chủ đám mây để cạnh tranh với OpenAI. Đó là một phần vì Oracle Cloud có thể chạy các mô hình máy học phức tạp tiết kiệm hơn so với Amazon Web Services hoặc Google Cloud, The Information đưa tin.
Cách tiếp cận của Oracle Cloud đối với cuộc đua AI có vẻ giống với AWS, công ty phát triển phần mềm AI của riêng mình để bán cho khách hàng, nhưng cũng sẽ bán quyền truy cập vào các sản phẩm và phần mềm AI nguồn mở từ các nhà phát triển AI khác.
Ngoài ra, một số người am hiểu vấn đề tiết lộ rằng Oracle đã bắt đầu thử nghiệm các sản phẩm của OpenAI để làm phong phú thêm dòng sản phẩm dành cho khách hàng B-end, bao gồm phần mềm quản lý nhân sự và chuỗi cung ứng, nhưng nhiều khả năng Oracle sẽ phát triển phần mềm của riêng mình cho mục đích này .các tính năng giúp khách hàng của Oracle nhanh chóng tạo mô tả công việc và lên lịch gặp mặt giữa nhà tuyển dụng và ứng viên, mặc dù công ty vẫn đang quyết định sản phẩm nào sẽ cải thiện trước.
Những tài liệu tham khảo:
"Vết nứt trong Đế chế Nvidia" | Viện nghiên cứu Yuanchuan
Nhà máy lớn và mô hình lớn: kinh doanh thực sự là lời cuối cùng|"Yunqi FutureScope"
Cuộc đua AI khác của Google và Microsoft: Chip máy chủ|Thông tin
Chủ nghĩa hoài nghi gia tăng đối với Chiến lược AI của AWS|Thông tin
Google, Nvidia và Microsoft cung cấp những gì VC không thể|Thông tin
Pro Weekly: Nhu cầu và sự cạnh tranh của AI thúc đẩy đám mây sáng tạo|Thông tin
Google đầu tư vào Đường băng khởi nghiệp AI để giành lấy hoạt động kinh doanh trên nền tảng đám mây từ AWS|Thông tin
Microsoft đang tính thêm 40% cho một số khách hàng Office 365 để thử nghiệm các tính năng AI|Thông tin
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Microsoft, Google và Amazon bắt đầu cuộc chiến đám mây trong kỷ nguyên mô hình lớn
Tác giả: Văn Thần Biên tập: Trịnh Xuân
Với việc thắt chặt chi tiêu cho đám mây đối với phần mềm doanh nghiệp Internet, tốc độ tăng trưởng chậm lại dần trở thành một đám mây đen trên đầu các nhà cung cấp đám mây.
Sự ra đời của ChatGPT đã phá vỡ nút cổ chai này và AI sẽ định hình lại phần mềm. Khách hàng của các nhà cung cấp đám mây—các công ty phần mềm đang tích cực nhúng các khả năng AI do các mô hình lớn mang lại vào quy trình công việc hiện có để hoàn thành quá trình tự động hóa cấp cao hơn.
Với việc khách hàng đám mây mới đang dần cạn kiệt, các công ty phần mềm không còn lên đám mây chỉ vì mục đích lên đám mây nữa mà cố gắng sử dụng AI để cải thiện năng suất. **"Đây là mức tăng lớn nhất trong thị trường điện toán đám mây trong mười năm tới. Cơ sở hạ tầng điện toán là người hưởng lợi tuyệt đối từ mô hình lớn." **Một người trong ngành điện toán đám mây đã làm việc trong ngành hơn mười năm giải thích cho Geek Park.
Trước triển vọng như vậy, một số đại gia dịch vụ đám mây lớn ở nước ngoài—Microsoft, Amazon, Google và Oracle đã nhanh chóng thực hiện các thay đổi. **Trong vài tháng qua, những gã khổng lồ trên nền tảng đám mây đã chi tiền thật để phát triển các mô hình quy mô lớn, đầu tư chiến lược và tự phát triển chip AI... Thời đại của các mô hình quy mô lớn đang lên ngôi và họ đã nhắm mục tiêu một thế hệ khách hàng phần mềm AI mới. **
Quá khứ còn lâu mới có thể bị phá vỡ, thị trường đám mây đang được cải tổ nhanh chóng và những gã khổng lồ đã mở ra một bức màn cạnh tranh mới.
Xét cho cùng, sự suy tàn của người anh lớn trong thời đại Internet di động đang đến gần, chỉ trong vài năm, Nokia đã từ 70% thị phần điện thoại di động ở thời kỳ hoàng kim trở thành không ai quan tâm, chỉ là giữa suy nghĩ của việc đưa ra một quyết định sai lầm. Đối với mô hình lớn, ngành công nghiệp đám mây nhanh chóng đạt được sự đồng thuận: lần này AI không phải là một biến số nhỏ, xét từ tốc độ phát triển nhanh chóng của ngành, những người chơi hàng đầu hiện nay cũng có thể bị bỏ lại phía sau.
**Một nửa năm 2023 đã trôi qua, bài viết này sẽ phân loại một số gã khổng lồ đám mây lớn ở nước ngoài, đâu là mấu chốt cho sự cạnh tranh giữa các nhà cung cấp đám mây ngày nay? **
01 Nghiên cứu và phát triển chip dành riêng cho AI, bạn không thể giao hết "sự sống" của mình cho Nvidia
Sau sự ra đời của kỷ nguyên mô hình lớn, đối với các nhà cung cấp dịch vụ đám mây, nguồn tài nguyên khan hiếm nhất hiện nay là sức mạnh tính toán hay còn gọi là chip AI. **Đầu tư vào cơ sở hạ tầng cơ bản - chip tăng tốc AI, cũng đã trở thành tâm điểm cạnh tranh đầu tiên giữa các nhà cung cấp đám mây ngày nay. **
Sự khan hiếm và chi phí cao được coi là những lý do chính khiến các nhà cung cấp đám mây tăng tốc chip tự phát triển. Ngay cả những nhân vật quyền lực trong giới công nghệ như Musk cũng nhận xét rằng "thứ này (GPU Nvidia) còn khó chữa hơn cả thuốc", và đã bí mật mua 10.000 thẻ từ Nvidia cho công ty AI X.AI của mình, đồng thời nhận được rất nhiều vốn nhàn rỗi. trong Oracle.
Mức độ khan hiếm này được phản ánh trong hoạt động kinh doanh của những gã khổng lồ trên nền tảng đám mây, tương ứng trực tiếp với thiệt hại kinh doanh do "kẹt cổ". Ngay cả Microsoft, công ty hành động trước, cũng đã bị dính tin đồn rằng do thiếu GPU, nhóm R&D AI nội bộ triển khai hệ thống phân phối GPU, nhiều kế hoạch mới bị trì hoãn và khách hàng mới phải xếp hàng hàng tháng trời để có được. chuyển đến Azure.
Ngay cả các tổ chức đầu tư mạo hiểm cũng phải dựa vào hàng tồn kho chip Nvidia để giành lấy các dự án. Vì lợi ích của thẻ bài N, lực lượng của tất cả các bên đã đạt đến mức "tất cả mọi thứ được sử dụng".
** Một tên gọi khác của khan hiếm là đắt đỏ. **Xét rằng mô hình lớn yêu cầu sức mạnh tính toán cao hơn mười lần, thẻ sẽ chỉ đắt hơn. Mới đây, một nhà đầu tư đã nói với Geek Park rằng: “Đầu năm, thẻ đơn A100 là 80.000, nhưng giờ đã bán tới 160.000, vẫn chưa đạt được”. đám mây khổng lồ phải trả "thuế Nvidia" sẽ chỉ là một con số thiên văn.
Thật khó để cảm thấy rằng "số phận" nằm trong tay người khác và Microsoft, công ty phổ biến nhất, có nhiều tiếng nói nhất. Một tháng trước, thông tin độc quyền đưa tin rằng Microsoft đã thành lập "Thiên Đường" 300 người để đẩy nhanh tốc độ phát triển chip AI tự phát triển. Chip máy chủ có tên mã Cascade có thể sẽ ra mắt vào đầu năm sau.
Không chỉ vì "kẹt cổ", chip tự phát triển của các nhà sản xuất đám mây, mà còn có một tầng ý nghĩa khác - GPU không nhất thiết phải là chip phù hợp nhất để chạy AI và phiên bản tự phát triển có thể tối ưu hóa các tác vụ AI cụ thể.
Phải thừa nhận rằng hầu hết các mô hình AI tiên tiến hiện nay đều được cung cấp bởi GPU, vì GPU chạy khối lượng công việc máy học tốt hơn so với bộ xử lý đa năng. **Tuy nhiên, GPU vẫn được coi là chip đa năng, không phải là nền tảng xử lý gốc thực sự cho điện toán AI. **Như Viện nghiên cứu Yuanchuan đã chỉ ra trong "Một vết nứt trong đế chế Nvidia", GPU không được sinh ra để đào tạo mạng lưới thần kinh. Trí tuệ nhân tạo càng phát triển nhanh thì những vấn đề này sẽ càng lộ ra nhiều hơn. Dựa vào CUDA và các công nghệ khác nhau để "thay đổi kỳ diệu" theo từng cảnh là một lựa chọn, nhưng nó không phải là giải pháp tối ưu.
Amazon, Google và Microsoft đã và đang phát triển các chip được gọi là ASIC - mạch tích hợp dành riêng cho ứng dụng - phù hợp hơn với trí tuệ nhân tạo. The Information đã phỏng vấn nhiều chuyên gia và nhà phân tích trong ngành công nghiệp chip và kết luận rằng GPU Nvidia đã giúp đào tạo mô hình đằng sau ChatGPT, nhưng ASIC thường thực hiện các tác vụ này nhanh hơn và tiêu thụ ít năng lượng hơn.
Hiện tại, Amazon và Google đã phát triển các ASIC tùy chỉnh cho các sản phẩm nội bộ quan trọng và đã cung cấp các chip này cho khách hàng thông qua đám mây. Kể từ năm 2019, Microsoft cũng đã nghiên cứu phát triển chip ASIC tùy chỉnh để cung cấp năng lượng cho các mô hình ngôn ngữ lớn.
Một số chip do các nhà cung cấp đám mây này phát triển, chẳng hạn như chip máy chủ Graviton của Amazon và chip dành riêng cho AI do Amazon và Google phát hành, đã có hiệu suất tương đương với chip của các nhà sản xuất chip truyền thống, theo dữ liệu hiệu suất do khách hàng trên đám mây và Microsoft công bố. Google TPU v4 nhanh hơn 1,2-1,7 lần so với Nvidia A100, đồng thời giảm mức tiêu thụ điện năng 1,3-1,9 lần.
02 Cạnh tranh đầu tư chiến lược: Đại gia chi tiền để “mua khách”
Ngoài nghiên cứu và phát triển chip, điểm mấu chốt thứ hai trong cuộc cạnh tranh của một số đại gia điện toán đám mây lớn ở nước ngoài là đầu tư vào các khoản đầu tư chiến lược nước ngoài để giành lấy khách hàng AI và các dự án AI. **
So với đầu tư mạo hiểm, đầu tư chiến lược của các đại gia có lợi thế tuyệt đối. Sự kết hợp giữa OpenAI và Microsoft là một ví dụ điển hình, mở ra tiền lệ cho các mô hình quy mô lớn và đầu tư chiến lược. Điều này là do các rào cản tài nguyên cần thiết cho các mô hình lớn và các ứng dụng liên quan là rất cao, chỉ có tiền, số tiền có hạn, là không đủ để giành lấy các dự án AI. Rốt cuộc, Google, Microsoft, AWS, Oracle hay Nvidia không chỉ có thể viết những tấm séc khổng lồ mà còn cung cấp các tài nguyên khan hiếm như tín dụng đám mây và GPU.
Từ quan điểm này, việc giành lấy các dự án và giành lấy khách hàng đều xảy ra giữa những người khổng lồ trên nền tảng đám mây và không có đối thủ nào khác. Họ đang chơi một trò chơi mới — tìm kiếm lời hứa từ các công ty AI rằng họ sẽ sử dụng dịch vụ đám mây của họ thay vì dịch vụ của đối thủ cạnh tranh.
Microsoft đang ngồi trên vị trí nhà cung cấp dịch vụ đám mây độc quyền của OpenAI Trong khi chi trả hóa đơn đám mây khổng lồ cho OpenAI, Microsoft đã đánh đổi hàng loạt quyền lợi đáng ghen tị như vốn chủ sở hữu của OpenAI và quyền ưu tiên sản phẩm.
**Các đối thủ của Microsoft cũng đang tranh giành các khách hàng AI khác. **Các nhà cung cấp dịch vụ đám mây này cung cấp chiết khấu và tín dụng sâu cho các công ty AI để giành được công việc kinh doanh của họ. Các nhà phê bình đã chỉ ra rằng điều này giống như mua khách hàng, mặc dù thực tế lấy vốn chủ sở hữu trong tương lai hoặc khách hàng hiện tại không phải là hiếm trong thế giới phần mềm doanh nghiệp.
Oracle cũng đã cung cấp các khoản tín dụng điện toán trị giá hàng trăm nghìn đô la để khuyến khích các công ty khởi nghiệp AI thuê máy chủ đám mây của Oracle, The Information đã đưa tin trước đây.
Google có thể là công ty tích cực nhất trong số các nhà cung cấp đám mây lớn này, cung cấp cho các công ty khởi nghiệp AI kết hợp tiền mặt và tín dụng Google Cloud để đổi lấy vốn chủ sở hữu. Đầu năm nay, Google đã đầu tư 400 triệu USD vào Anthropic, một trong những thách thức kinh doanh chính của OpenAI. Google Cloud cho biết vào tháng 2 rằng họ đã trở thành nhà cung cấp đám mây "ưa thích" của Anthropic.
Gần đây, Google đã đầu tư 100 triệu USD vào Runway, một công ty AI trong lĩnh vực "Vensheng Video". Nhưng trước đó, Amazon AWS đã chào hàng Runway như một khách hàng khởi nghiệp AI quan trọng. Vào tháng 3 năm nay, AWS và Runway đã công bố thiết lập quan hệ đối tác chiến lược lâu dài, trở thành "nhà cung cấp đám mây ưa thích" của họ. Giờ đây, Runway có vẻ sẽ là một trong những "con tốt thí" trong cuộc đọ sức của Google với Amazon, bởi Runway cũng được cho là sẽ thuê máy chủ đám mây của Google.
Trước đó, Google Cloud cũng đã công bố thiết lập quan hệ đối tác với hai công ty AI đình đám khác là: Midjourney trong lĩnh vực đồ thị Vincent và robot trò chuyện App Character.ai, vốn trước đây là khách hàng đám mây chủ chốt của Oracle.
Vẫn còn quá sớm để biết liệu những thỏa thuận này có giúp Google bắt kịp các đối thủ điện toán đám mây lớn hơn là AWS và Microsoft hay không, nhưng Google Cloud đang trên đà cải thiện.
Trong số 75 công ty phần mềm (AI) trong cơ sở dữ liệu Thông tin, Google cung cấp một số dịch vụ đám mây cho ít nhất 17 công ty, nhiều hơn bất kỳ nhà cung cấp đám mây nào khác. Amazon cũng không kém cạnh với ít nhất 15 công ty sử dụng AWS cho điện toán đám mây. Microsoft và Oracle lần lượt cung cấp dịch vụ đám mây cho sáu công ty và bốn công ty. Tất nhiên, sử dụng nhiều đám mây cũng là một thói quen trong ngành và ít nhất 12 trong số 75 công ty này sử dụng kết hợp nhiều nhà cung cấp đám mây.
03 mô hình lớn là chìa khóa thực sự để thắng hay thua
Sức mạnh máy tính và đầu tư chiến đấu là những điểm cao phải được tranh cãi trong giai đoạn đầu của cuộc chiến đám mây này. Nhưng về lâu dài, mô hình lớn mới là chìa khóa thực sự dẫn đến thành công trong cạnh tranh thị trường.
Khả năng trở thành người dẫn đầu của Microsoft là nhờ vào sự hợp tác với OpenAI, cùng với khả năng kỹ thuật xuất sắc của nhóm Microsoft, GPT-4 đã được nhúng vào "thùng gia đình" của Microsoft trong vòng vài tháng. Trong sáu tháng qua, Microsoft lần đầu tiên tận dụng ưu tiên sử dụng các sản phẩm OpenAI và việc giảm giá các sản phẩm phần mềm doanh nghiệp để chiếm lĩnh nhiều thị trường đám mây hơn. Sau đó dựa vào việc nâng cấp dòng sản phẩm lên Microsoft 365 Copilot để tăng giá nhằm thu được doanh thu lớn hơn.
Theo nghiên cứu của Yunqi Capital, mô hình cơ bản của Microsoft về cơ bản dựa trên OpenAI và sau khi tiếp cận mô hình lớn, Microsoft bắt đầu đóng gói và bán Teams, Power BI, Azure và các sản phẩm lớp ứng dụng khác với giá thấp hơn.
Giám đốc tài chính của Microsoft, Amy Hood, đã nói với các nhà đầu tư vào tháng 4 rằng OpenAI sẽ tạo ra doanh thu cho Azure khi nhiều người bắt đầu sử dụng dịch vụ của họ.
Các báo cáo mới chỉ ra rằng Microsoft đang tính phí bảo hiểm 40% cho một số khách hàng Office 365 để kiểm tra các khả năng AI tự động hóa các tác vụ như viết văn bản trong tài liệu Word và tạo trang trình bày PowerPoint và ít nhất 100 khách hàng đã trả phí cố định lên tới 100.000 USD. Dữ liệu cho thấy rằng trong vòng một tháng kể từ khi ra mắt, Microsoft đã kiếm được hơn 60 triệu USD doanh thu từ các chức năng AI của Microsoft 365 Copilot.
**Trái ngược hoàn toàn với Microsoft, Amazon Cloud, công ty dẫn đầu một thời, chậm một bước so với mô hình lớn, ngày nay đang phải đối mặt với những thách thức gay gắt hơn. **
AWS là nhà phát triển sớm các dịch vụ đám mây AI và nó đã có mặt từ khoảng năm 2016. Nhưng khách hàng không thấy các dịch vụ, bao gồm nhận dạng khuôn mặt, chuyển đổi văn bản thành giọng nói sống động như thật và các dạng chatbot nguyên thủy cho các nhiệm vụ như dịch vụ khách hàng, là rất hữu ích. AWS cũng đã ra mắt SagaMaker, một công cụ kỹ thuật số AI dành cho các kỹ sư vào năm 2017, để giúp họ phát triển và sử dụng các mô hình máy học, từng trở thành sản phẩm AI quan trọng nhất của AWS.
Tuy nhiên, trong những năm tiếp theo, các sản phẩm AI của AWS không theo kịp làn sóng mô hình ngôn ngữ lớn.Từ tháng 11 năm 2021, Microsoft bắt đầu bán các sản phẩm AI được phát triển dựa trên loạt mô hình GPT dành cho khách hàng doanh nghiệp. Đồng thời, Google cũng đã giành lấy các công ty khởi nghiệp AI lớn với tư cách là khách hàng đám mây và bán phần mềm AI độc quyền cho các khách hàng đám mây của mình. Ngay cả Oracle, kẻ tụt hậu về điện toán đám mây, cũng có lợi thế riêng trong việc cung cấp tài nguyên điện toán cho các công ty khởi nghiệp AI.
AWS, muộn màng, đang cố gắng bắt kịp. Vào tháng 4, nó đã công bố một dịch vụ đám mây cho phép khách hàng sử dụng các mô hình lớn từ Phòng thí nghiệm Ổn định, Anthropic và AI 21 làm cơ sở cho các sản phẩm của riêng họ. Đổi lại, AWS sẽ chia sẻ một phần doanh thu với các đối tác này.
**Google dậy sớm, nhưng bắt kịp muộn. **Là một nhà sản xuất lớn với bề dày kinh nghiệm trong lĩnh vực mô hình quy mô lớn, phản ứng của Google sau khi phát hành ChatGPT không hề khó chịu, hãng đã nhanh chóng tung ra robot thông minh đàm thoại Bard và mô hình ngôn ngữ quy mô lớn thế hệ mới PaLM 2 như một phản ứng Kết quả là, cuộc họp báo đã bị lật ngược trực tiếp, Tốc độ phát hành sản phẩm tiếp theo không phải là lý tưởng, điều này hoàn toàn trái ngược với khả năng kỹ thuật mạnh mẽ của Microsoft.
** Điều cuối cùng đáng nói là Oracle, vốn đã bị loại khỏi vị trí dẫn đầu trên thị trường đám mây từ rất sớm, bất ngờ có xu hướng phản công trong làn sóng bùng nổ này. **
Oracle, một kẻ chậm chân trong lĩnh vực đám mây từ lâu, đã thành công một cách đáng ngạc nhiên trong việc cho các công ty khởi nghiệp AI nổi tiếng thuê máy chủ đám mây để cạnh tranh với OpenAI. Đó là một phần vì Oracle Cloud có thể chạy các mô hình máy học phức tạp tiết kiệm hơn so với Amazon Web Services hoặc Google Cloud, The Information đưa tin.
Cách tiếp cận của Oracle Cloud đối với cuộc đua AI có vẻ giống với AWS, công ty phát triển phần mềm AI của riêng mình để bán cho khách hàng, nhưng cũng sẽ bán quyền truy cập vào các sản phẩm và phần mềm AI nguồn mở từ các nhà phát triển AI khác.
Ngoài ra, một số người am hiểu vấn đề tiết lộ rằng Oracle đã bắt đầu thử nghiệm các sản phẩm của OpenAI để làm phong phú thêm dòng sản phẩm dành cho khách hàng B-end, bao gồm phần mềm quản lý nhân sự và chuỗi cung ứng, nhưng nhiều khả năng Oracle sẽ phát triển phần mềm của riêng mình cho mục đích này .các tính năng giúp khách hàng của Oracle nhanh chóng tạo mô tả công việc và lên lịch gặp mặt giữa nhà tuyển dụng và ứng viên, mặc dù công ty vẫn đang quyết định sản phẩm nào sẽ cải thiện trước.
Những tài liệu tham khảo:
"Vết nứt trong Đế chế Nvidia" | Viện nghiên cứu Yuanchuan
Nhà máy lớn và mô hình lớn: kinh doanh thực sự là lời cuối cùng|"Yunqi FutureScope"
Cuộc đua AI khác của Google và Microsoft: Chip máy chủ|Thông tin
Chủ nghĩa hoài nghi gia tăng đối với Chiến lược AI của AWS|Thông tin
Google, Nvidia và Microsoft cung cấp những gì VC không thể|Thông tin
Pro Weekly: Nhu cầu và sự cạnh tranh của AI thúc đẩy đám mây sáng tạo|Thông tin
Google đầu tư vào Đường băng khởi nghiệp AI để giành lấy hoạt động kinh doanh trên nền tảng đám mây từ AWS|Thông tin
Microsoft đang tính thêm 40% cho một số khách hàng Office 365 để thử nghiệm các tính năng AI|Thông tin