Theo những người quen thuộc với vấn đề này, khi tình trạng thiếu chip để đào tạo các mô hình trí tuệ nhân tạo ngày càng trầm trọng, OpenAI, nhà phát triển đằng sau ChatGPT, đang khám phá việc tạo ra chip AI của riêng mình và đã đánh giá các mục tiêu mua lại tiềm năng. Ít nhất là từ năm ngoái, OpenAI đã thảo luận về nhiều lựa chọn khác nhau để giải quyết tình trạng thiếu chip AI đắt tiền mà nó dựa vào.
Những lựa chọn đó bao gồm xây dựng chip AI của riêng mình, hợp tác chặt chẽ hơn với các nhà sản xuất chip khác bao gồm Nvidia và đa dạng hóa các nhà cung cấp ngoài Nvidia (NVDA.O).
Hiện tại, OpenAI, giống như hầu hết các đối thủ cạnh tranh, dựa vào phần cứng dựa trên GPU để phát triển các mô hình như ChatGPT, GPT-4 và DALL-E 3. Khả năng GPU thực hiện nhiều phép tính song song khiến chúng trở nên lý tưởng để đào tạo các mô hình tiên tiến nhất hiện nay.
Giám đốc điều hành OpenAI Sam Altman đã ưu tiên việc có thêm chip GPU cho công ty. Ông đã công khai phàn nàn về sự khan hiếm GPU. Thị trường chip AI hiện đang do Nvidia thống trị, công ty kiểm soát hơn 80% thị trường chip AI toàn cầu.
Việc thúc đẩy có thêm chip gắn liền với hai vấn đề chính mà Altman xác định: sự thiếu hụt bộ xử lý tiên tiến để cung cấp năng lượng cho phần mềm OpenAI và số lượng phần cứng cần thiết “chóng mặt” để cung cấp năng lượng cho công việc và sản phẩm của nó.
Kể từ năm 2020, OpenAI đã phát triển công nghệ AI tổng quát của mình trên một siêu máy tính khổng lồ được chế tạo bởi một trong những người ủng hộ lớn nhất của nó, Microsoft, sử dụng 10.000 đơn vị xử lý đồ họa (GPU) Nvidia.
Nhưng sự bùng nổ về trí tuệ nhân tạo tổng hợp – một vận may bất ngờ cho các nhà sản xuất GPU như Nvidia – đã gây áp lực rất lớn lên chuỗi cung ứng GPU. Microsoft cảnh báo trong báo cáo thu nhập mùa hè của mình rằng sự thiếu hụt trầm trọng phần cứng máy chủ cần thiết để chạy trí tuệ nhân tạo có thể dẫn đến ngừng hoạt động dịch vụ. Các chip AI hoạt động tốt nhất của Nvidia được cho là đã bán hết cho đến năm 2024.
GPU cũng rất quan trọng để chạy và phục vụ các mô hình OpenAI; công ty dựa vào các cụm GPU trên đám mây để thực hiện khối lượng công việc của khách hàng. Nhưng chúng cực kỳ tốn kém.
Chạy ChatGPT rất tốn kém đối với OpenAI. Theo phân tích của nhà phân tích Stacy Rasgon của Bernstein, chi phí cho mỗi truy vấn là khoảng 4 xu. Nếu các truy vấn ChatGPT tăng lên 1/10 kích thước tìm kiếm của Google, điều này ban đầu sẽ yêu cầu GPU trị giá khoảng 48,1 tỷ USD và chip trị giá khoảng 16 tỷ USD mỗi năm để tiếp tục hoạt động.
Cuộc thi AI sáng tạo bước vào kỷ nguyên chip tùy chỉnh
Kể từ khi ChatGPT ra mắt vào năm ngoái, nhu cầu về chip AI chuyên dụng đã tăng vọt. Việc đào tạo và chạy các công nghệ AI thế hệ mới nhất yêu cầu các chip hoặc bộ tăng tốc AI cụ thể. Nvidia là một trong số ít nhà sản xuất chip sản xuất chip AI hữu ích và chiếm lĩnh thị trường.
Nỗ lực phát triển chip AI của riêng mình sẽ đưa OpenAI vào nhóm nhỏ các công ty công nghệ lớn, chẳng hạn như Google và Amazon, đang tìm cách kiểm soát thiết kế của các chip cơ bản mà chúng được xây dựng trên đó.
Không rõ liệu OpenAI có tiến hành kế hoạch cho chip tùy chỉnh hay không. Những người kỳ cựu trong ngành cho rằng làm như vậy sẽ là một bước đi chiến lược lớn và là một khoản đầu tư khổng lồ có thể tiêu tốn hàng trăm triệu đô la mỗi năm. Ngay cả khi OpenAI dành tài nguyên cho nhiệm vụ thì thành công cũng không được đảm bảo.
Việc mua lại một công ty chip có thể đẩy nhanh quá trình xây dựng chip của riêng OpenAI, giống như Amazon đã làm với việc mua lại Annapurna Labs vào năm 2015.
Theo một người quen thuộc với vấn đề này, OpenAI đã xem xét các con đường để tiến hành thẩm định các mục tiêu mua lại tiềm năng. Tuy nhiên, vẫn chưa thể biết được danh sách các công ty mà OpenAI đang xem xét để mua lại.
Ngay cả khi OpenAI tiến hành các kế hoạch chip tùy chỉnh của mình, bao gồm cả việc mua lại, công việc này có thể mất nhiều năm và OpenAI vẫn sẽ cần phải dựa vào các nhà cung cấp chip thương mại như Nvidia và AMD.
Một số công ty công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng đạt được rất ít thành công. Reuters đưa tin, công việc xử lý chip tùy chỉnh của Meta đã gặp vấn đề, khiến công ty phải loại bỏ một số chip trí tuệ nhân tạo của mình. Meta hiện đang phát triển một con chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.
Microsoft có kế hoạch xây dựng chip AI mới để đào tạo mô hình lớn
Theo The Information, Microsoft (MSFT.O) có kế hoạch giới thiệu con chip đầu tiên của công ty được thiết kế cho trí tuệ nhân tạo tại hội nghị nhà phát triển thường niên vào tháng tới. Động thái này là đỉnh cao của nhiều năm làm việc và có thể giúp Microsoft giảm sự phụ thuộc vào chip trí tuệ nhân tạo do Nvidia Corp (NVDA.O) thiết kế. Khi nhu cầu tăng cao, những con chip này đã bị thiếu hụt. Chip của Microsoft được thiết kế cho các máy chủ trung tâm dữ liệu đào tạo và chạy các mô hình ngôn ngữ lớn (LLM). Các máy chủ trung tâm dữ liệu của Microsoft hiện sử dụng GPU của Nvidia để cung cấp LLM nâng cao cho khách hàng trên nền tảng đám mây, bao gồm OpenAI và Intuit, cũng như hỗ trợ các chức năng trí tuệ nhân tạo trong các ứng dụng năng suất của Microsoft.
Những kế hoạch này có thể đánh dấu sự ghẻ lạnh hơn nữa giữa hai công ty OpenAI và Microsoft.
Cơ hội và thách thức cùng tồn tại trong lĩnh vực chip AI. Ngay cả khi OpenAI nỗ lực đưa chip tùy chỉnh ra thị trường, nỗ lực như vậy có thể sẽ mất nhiều năm và tiêu tốn hàng trăm triệu đô la mỗi năm. Vẫn còn phải xem liệu các nhà đầu tư của công ty khởi nghiệp, một trong số đó là Microsoft, có quan tâm đến việc đặt cược rủi ro như vậy hay không. Tiềm năng của OpenAI trong việc thâm nhập vào không gian này làm nổi bật sự thay đổi của ngành rộng lớn hơn hướng tới các giải pháp tùy chỉnh và tự lực hơn. Kết quả vẫn còn phải chờ xem, nhưng những tác động đối với thế giới trí tuệ nhân tạo là rất lớn.
Người giới thiệu:
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Loại bỏ Nvidia? OpenAI và Microsoft đều chọn phát triển chip AI của riêng mình
Theo những người quen thuộc với vấn đề này, khi tình trạng thiếu chip để đào tạo các mô hình trí tuệ nhân tạo ngày càng trầm trọng, OpenAI, nhà phát triển đằng sau ChatGPT, đang khám phá việc tạo ra chip AI của riêng mình và đã đánh giá các mục tiêu mua lại tiềm năng. Ít nhất là từ năm ngoái, OpenAI đã thảo luận về nhiều lựa chọn khác nhau để giải quyết tình trạng thiếu chip AI đắt tiền mà nó dựa vào.
Những lựa chọn đó bao gồm xây dựng chip AI của riêng mình, hợp tác chặt chẽ hơn với các nhà sản xuất chip khác bao gồm Nvidia và đa dạng hóa các nhà cung cấp ngoài Nvidia (NVDA.O).
Hiện tại, OpenAI, giống như hầu hết các đối thủ cạnh tranh, dựa vào phần cứng dựa trên GPU để phát triển các mô hình như ChatGPT, GPT-4 và DALL-E 3. Khả năng GPU thực hiện nhiều phép tính song song khiến chúng trở nên lý tưởng để đào tạo các mô hình tiên tiến nhất hiện nay.
Giám đốc điều hành OpenAI Sam Altman đã ưu tiên việc có thêm chip GPU cho công ty. Ông đã công khai phàn nàn về sự khan hiếm GPU. Thị trường chip AI hiện đang do Nvidia thống trị, công ty kiểm soát hơn 80% thị trường chip AI toàn cầu.
Việc thúc đẩy có thêm chip gắn liền với hai vấn đề chính mà Altman xác định: sự thiếu hụt bộ xử lý tiên tiến để cung cấp năng lượng cho phần mềm OpenAI và số lượng phần cứng cần thiết “chóng mặt” để cung cấp năng lượng cho công việc và sản phẩm của nó.
Kể từ năm 2020, OpenAI đã phát triển công nghệ AI tổng quát của mình trên một siêu máy tính khổng lồ được chế tạo bởi một trong những người ủng hộ lớn nhất của nó, Microsoft, sử dụng 10.000 đơn vị xử lý đồ họa (GPU) Nvidia.
Nhưng sự bùng nổ về trí tuệ nhân tạo tổng hợp – một vận may bất ngờ cho các nhà sản xuất GPU như Nvidia – đã gây áp lực rất lớn lên chuỗi cung ứng GPU. Microsoft cảnh báo trong báo cáo thu nhập mùa hè của mình rằng sự thiếu hụt trầm trọng phần cứng máy chủ cần thiết để chạy trí tuệ nhân tạo có thể dẫn đến ngừng hoạt động dịch vụ. Các chip AI hoạt động tốt nhất của Nvidia được cho là đã bán hết cho đến năm 2024.
GPU cũng rất quan trọng để chạy và phục vụ các mô hình OpenAI; công ty dựa vào các cụm GPU trên đám mây để thực hiện khối lượng công việc của khách hàng. Nhưng chúng cực kỳ tốn kém.
Chạy ChatGPT rất tốn kém đối với OpenAI. Theo phân tích của nhà phân tích Stacy Rasgon của Bernstein, chi phí cho mỗi truy vấn là khoảng 4 xu. Nếu các truy vấn ChatGPT tăng lên 1/10 kích thước tìm kiếm của Google, điều này ban đầu sẽ yêu cầu GPU trị giá khoảng 48,1 tỷ USD và chip trị giá khoảng 16 tỷ USD mỗi năm để tiếp tục hoạt động.
Cuộc thi AI sáng tạo bước vào kỷ nguyên chip tùy chỉnh
Kể từ khi ChatGPT ra mắt vào năm ngoái, nhu cầu về chip AI chuyên dụng đã tăng vọt. Việc đào tạo và chạy các công nghệ AI thế hệ mới nhất yêu cầu các chip hoặc bộ tăng tốc AI cụ thể. Nvidia là một trong số ít nhà sản xuất chip sản xuất chip AI hữu ích và chiếm lĩnh thị trường.
Nỗ lực phát triển chip AI của riêng mình sẽ đưa OpenAI vào nhóm nhỏ các công ty công nghệ lớn, chẳng hạn như Google và Amazon, đang tìm cách kiểm soát thiết kế của các chip cơ bản mà chúng được xây dựng trên đó.
Không rõ liệu OpenAI có tiến hành kế hoạch cho chip tùy chỉnh hay không. Những người kỳ cựu trong ngành cho rằng làm như vậy sẽ là một bước đi chiến lược lớn và là một khoản đầu tư khổng lồ có thể tiêu tốn hàng trăm triệu đô la mỗi năm. Ngay cả khi OpenAI dành tài nguyên cho nhiệm vụ thì thành công cũng không được đảm bảo.
Việc mua lại một công ty chip có thể đẩy nhanh quá trình xây dựng chip của riêng OpenAI, giống như Amazon đã làm với việc mua lại Annapurna Labs vào năm 2015.
Theo một người quen thuộc với vấn đề này, OpenAI đã xem xét các con đường để tiến hành thẩm định các mục tiêu mua lại tiềm năng. Tuy nhiên, vẫn chưa thể biết được danh sách các công ty mà OpenAI đang xem xét để mua lại.
Ngay cả khi OpenAI tiến hành các kế hoạch chip tùy chỉnh của mình, bao gồm cả việc mua lại, công việc này có thể mất nhiều năm và OpenAI vẫn sẽ cần phải dựa vào các nhà cung cấp chip thương mại như Nvidia và AMD.
Một số công ty công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng đạt được rất ít thành công. Reuters đưa tin, công việc xử lý chip tùy chỉnh của Meta đã gặp vấn đề, khiến công ty phải loại bỏ một số chip trí tuệ nhân tạo của mình. Meta hiện đang phát triển một con chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.
Microsoft có kế hoạch xây dựng chip AI mới để đào tạo mô hình lớn
Theo The Information, Microsoft (MSFT.O) có kế hoạch giới thiệu con chip đầu tiên của công ty được thiết kế cho trí tuệ nhân tạo tại hội nghị nhà phát triển thường niên vào tháng tới. Động thái này là đỉnh cao của nhiều năm làm việc và có thể giúp Microsoft giảm sự phụ thuộc vào chip trí tuệ nhân tạo do Nvidia Corp (NVDA.O) thiết kế. Khi nhu cầu tăng cao, những con chip này đã bị thiếu hụt. Chip của Microsoft được thiết kế cho các máy chủ trung tâm dữ liệu đào tạo và chạy các mô hình ngôn ngữ lớn (LLM). Các máy chủ trung tâm dữ liệu của Microsoft hiện sử dụng GPU của Nvidia để cung cấp LLM nâng cao cho khách hàng trên nền tảng đám mây, bao gồm OpenAI và Intuit, cũng như hỗ trợ các chức năng trí tuệ nhân tạo trong các ứng dụng năng suất của Microsoft.
Những kế hoạch này có thể đánh dấu sự ghẻ lạnh hơn nữa giữa hai công ty OpenAI và Microsoft.
Cơ hội và thách thức cùng tồn tại trong lĩnh vực chip AI. Ngay cả khi OpenAI nỗ lực đưa chip tùy chỉnh ra thị trường, nỗ lực như vậy có thể sẽ mất nhiều năm và tiêu tốn hàng trăm triệu đô la mỗi năm. Vẫn còn phải xem liệu các nhà đầu tư của công ty khởi nghiệp, một trong số đó là Microsoft, có quan tâm đến việc đặt cược rủi ro như vậy hay không. Tiềm năng của OpenAI trong việc thâm nhập vào không gian này làm nổi bật sự thay đổi của ngành rộng lớn hơn hướng tới các giải pháp tùy chỉnh và tự lực hơn. Kết quả vẫn còn phải chờ xem, nhưng những tác động đối với thế giới trí tuệ nhân tạo là rất lớn.
Người giới thiệu: