Trước làn sóng trí tuệ nhân tạo, sự lựa chọn của Intel

Nguồn: Ghi chú nghiên cứu thỏ Alpha

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Với sự phát triển của sự bùng nổ trí tuệ nhân tạo, các đối thủ cạnh tranh lâu đời của Intel như Nvidia và Broadcom * (Broadcom: doanh thu chip tăng hơn dự kiến trong quý II năm nay và trong năm tài chính tiếp theo, hoạt động kinh doanh chip liên quan đến AI của Broadcom dự kiến sẽ tăng gấp đôi lên 7 tỷ USD, trở thành công ty chip AI lớn thứ hai thế giới sau Nvidia) * và các công ty khác đang tỏa sáng trong làn sóng trí tuệ nhân tạo này, nhưng Intel dường như không theo kịp tốc độ của trí tuệ nhân tạo.

Ngay từ tháng 5/2023, tại hội nghị siêu máy tính ở Đức, Tập đoàn Intel (INTC.O) đã công bố các thông số của chip GPU Falcon Shores dự kiến ra mắt vào năm 2025 như sau: thông số kỹ thuật của bộ nhớ băng thông cao (HBM3) sẽ đạt 288GB, hỗ trợ số học dấu phẩy động 8 bit và tổng băng thông có thể đạt 9,8TB/giây.

Ngoài ra, còn có việc giao siêu máy tính Aurora dựa trên Ponte Vecchio sắp tới cho Phòng thí nghiệm Quốc gia Argonne ở Hoa Kỳ. Tuy nhiên, do tốc độ ra mắt chip **, ví dụ, các chip tiếp theo của Falcon Shores sẽ không có sẵn cho đến năm 2025 và vẫn khó cạnh tranh với các công ty như Nvidia đã tung ra sản phẩm nhanh chóng. **

Sự kiện ngày 19 tháng 9 năm 2023 của Intel tại Trung tâm Đổi mới Intel ở San Jose, California, cũng nhấn mạnh suy nghĩ về AI, với Pat Gelsinger đặc biệt trình bày một số điểm trong ngày đầu tiên của Intel Innovation:

Về tiến bộ công nghệ xử lý: Intel vẫn đang đi đúng hướng cho kế hoạch năm nút quy trình trong bốn năm. Công ty đã giới thiệu gói multi-chipset đầu tiên để kết nối với nhau bằng cách sử dụng Universal Chip Interconnect Expression (UCIe).

Bộ xử lý Intel Xeon Xeon thế hệ tiếp theo: Intel đã chia sẻ chi tiết về bộ xử lý Xeon Xeon sắp tới. Các bộ xử lý này sẽ cung cấp những cải tiến đáng kể về hiệu quả năng lượng và hiệu suất. Họ cũng tung ra bộ xử lý E-core với 288 lõi. Bộ vi xử lý Intel Xeon Xeon thế hệ thứ năm sẽ được phát hành vào ngày 14 tháng 12.

Ra mắt PC AI: Intel sẽ phát hành bộ vi xử lý Intel Core Ultra và ra mắt PC AI vào ngày 14/12. Điều này đánh dấu bước đột phá đầu tiên của Intel vào bộ xử lý thần kinh tích hợp (NPU) để cung cấp khả năng tăng tốc AI hiệu quả trực tiếp trên PC.

Siêu máy tính AI: Intel đang xây dựng một siêu máy tính AI khổng lồ dựa trên bộ xử lý Intel Xeon Xeon và bộ tăng tốc phần cứng Intel Gaudi2 AI. Tính ổn định AI là một khách hàng lớn và Alibaba cũng có ý định sử dụng bộ xử lý Xeon Xeon thế hệ thứ tư trong công cụ suy luận của mình.

Intel Developer Cloud: Intel đã công bố tính khả dụng chung của Intel Developer Cloud. Nền tảng này được thiết kế để sử dụng để xây dựng và thử nghiệm các ứng dụng hiệu suất cao, bao gồm cả trí tuệ nhân tạo. Nó đã được sử dụng bởi một số khách hàng và trước đây đã được thử nghiệm.

Giải pháp phần mềm: Intel đã giới thiệu các giải pháp phần mềm sắp tới, bao gồm cả bản phát hành 2023.1 của bộ công cụ Intel OpenVINO. Điều này sẽ giúp các nhà phát triển tận dụng các khả năng AI mới.

Khách hàng đặt cược vào AI: Bộ xử lý Ultra lõi mới, có tên mã là "Meteor Lake", là động thái chiến lược của Intel để thúc đẩy AI ở phía máy khách. Như Gelsinger giải thích, sự kết hợp giữa AI, đám mây và PC sẽ biến đổi đáng kể và nâng cao trải nghiệm PC.

Tính năng của bộ xử lý Core Ultra: Bộ xử lý Core Ultra được trang bị NPU tích hợp đầu tiên của Intel để hoạt động AI hiệu quả. Đây là thiết kế chip khách hàng đầu tiên của Intel được hỗ trợ bởi công nghệ đóng gói Foveros 3D. Ngoài NPU, bộ xử lý đã đạt được tiến bộ đáng kể về hiệu quả năng lượng nhờ công nghệ xử lý Intel 4. Ngoài ra, nó cung cấp đồ họa Intel Arc tích hợp với hiệu suất đồ họa rời.

** Chiến lược mới nhất**

**Gần đây, Information đưa tin Intel có một thỏa thuận chiến lược mới và đang làm việc với một số công ty tư vấn để xây dựng các ứng dụng giống như ChatGPT cho những khách hàng không có kiến thức chuyên môn. Dự án đã được khởi động vào đầu năm nay với sự hợp tác của Tập đoàn Tư vấn Boston và sẽ được thành lập với các công ty tư vấn khác theo thời gian. **

Ngoài ra, Intel có kế hoạch bán các ứng dụng To B trực tiếp cho khách hàng doanh nghiệp.

Tuy nhiên, hầu hết khách hàng AI hiện đang mua các dịch vụ mô hình ngôn ngữ lớn từ các công ty như OpenAI. Tuy nhiên, Intel muốn hợp tác với một công ty tư vấn lớn để giúp khách hàng tìm ra mô hình phù hợp với nhu cầu cụ thể của họ.

Cụ thể, Intel phát triển phần mềm hỗ trợ khách hàng điều chỉnh mô hình. Điều này cho phép khách hàng phát triển các ứng dụng giống như ChatGPT của riêng họ và các công cụ tìm kiếm được hỗ trợ bởi AI. Tuy nhiên, Intel vẫn chưa công bố đầy đủ các tính năng, lợi ích và chi phí và giá cả cụ thể của dịch vụ này, và ước tính nó sẽ được công bố chính thức trong những tháng tới.

**Hành động của Intel thể hiện đầy đủ tầm quan trọng của trí tuệ nhân tạo như một bố cục chiến lược trong các công ty công nghệ. Sự tham gia của Intel vào phát triển phần mềm có nghĩa là tại thời điểm này, việc khách hàng có sử dụng chip của Intel hay không không phải là điều quan trọng nhất. Tin tức cũng cho biết Intel có kế hoạch hướng dẫn một số khách hàng sử dụng chip Gaudi và Xeon của Intel để điều khiển LLM. Đồng thời, Nvidia cũng đang làm việc để xây dựng một doanh nghiệp phần mềm AI quan trọng, mặc dù trọng tâm của nó là những khách hàng đã sử dụng bộ xử lý đồ họa của mình, thống trị điện toán AI.

Nhưng có một xu hướng có lợi cho Intel - giảm chi phí và tăng hiệu quả là điều quan trọng đối với mọi người: Sau khi nhiều công ty nhanh chóng tung ra các sản phẩm mới để giúp nhân viên hoặc khách hàng tóm tắt nội dung cuộc họp, tự động hóa mã hóa phần mềm hoặc tạo email cho khách hàng tiềm năng, các doanh nghiệp sử dụng các công cụ này ở Mỹ đang tìm cách giảm chi tiêu LLM.

Theo The Information, các khách hàng OpenAI lớn ban đầu đang tìm kiếm các lựa chọn thay thế rẻ hơn, trong khi Microsoft trong một số trường hợp muốn sử dụng các mô hình AI nguồn mở đơn giản hơn, rẻ hơn thay vì OpenAI, đắt hơn để chạy. Giống như các nhà cung cấp AI khác với sự tự tin trên thị trường, Intel giờ đây có thể hưởng lợi từ sự lựa chọn ngày càng tăng của các nhu cầu mô hình lớn.

Tuy nhiên, Intel vẫn phải cạnh tranh với các nhà cung cấp dịch vụ đám mây truyền thống cũng như các công ty tư vấn nhỏ được thành lập giúp khách hàng với các máy chủ đám mây và trí tuệ nhân tạo. Các nhà cung cấp dịch vụ đám mây như Microsoft, Amazon và Google muốn hấp thụ phần lớn chi tiêu của công ty liên quan đến AI LLM bằng cách thuê các máy chủ chuyên dụng để đào tạo và chạy AI LLM (đặc biệt là khi Microsoft đã đạt được một số tiến bộ trong lĩnh vực này). Đồng thời, Nvidia đang cố gắng đặt mình giữa các nhà cung cấp dịch vụ đám mây này và khách hàng của mình, sử dụng các máy chủ chạy bằng chip để chạy các dịch vụ đám mây của riêng mình.

Mặc dù có vẻ hơi muộn, nhưng thế mạnh của Intel là "rất nhiều tiền và một công cụ tiếp thị mạnh mẽ". **

Thư mục:***

    • CEO Intel: 'Chúng tôi sẽ xây dựng AI vào mọi nền tảng chúng tôi xây dựng' -*
    • VergeAI tụt hậu Intel mở rộng nỗ lực giúp các công ty xây dựng các ứng dụng giống như ChatGPT - thông tin *
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)