Quy mô thị trường 10 năm là 1, 3 nghìn tỷ đô la Mỹ, và kỷ nguyên của năng lượng mô-đun đã đến

Nguồn gốc: Qubits

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Cơn bão mô hình lớn đã thổi trong hầu hết các năm và thị trường AIGC bắt đầu thay đổi trở lại:

Các bản demo công nghệ tuyệt vời đang được thay thế bằng trải nghiệm sản phẩm đầy đủ. **

Ví dụ: mô hình vẽ tranh AI mới nhất của OpenAI DALL · Ngay khi E 3 ra mắt, nó đã hợp tác với ChatGPT để trở thành công cụ năng suất mới được mong đợi nhất trong ChatGPT Plus.

** **###### DALL· E3 tái tạo chính xác mọi chi tiết nhập văn bản

Ví dụ, Copilot của Microsoft dựa trên GPT-4 đã được giải quyết hoàn toàn trong Windows 11, chính thức thay thế Cortana trở thành một thế hệ trợ lý AI mới trong hệ điều hành.

** **###### Sử dụng Copilot để tóm tắt các bài đăng trên blog chỉ bằng một cú nhấp chuột

Một ví dụ khác, những chiếc xe nội địa như Jiyue 01 đã chính thức trang bị các mẫu xe cỡ lớn trong buồng lái, và chúng hoàn toàn ngoại tuyến...

Nếu "các mô hình lớn định hình lại mọi thứ" vào tháng 3/2023 chỉ là một dự đoán lạc quan của những người tiên phong công nghệ thì ngày nay, cuộc chiến 100 mô hình vẫn khốc liệt và tiến bộ ứng dụng thực tế đã khiến quan điểm này ngày càng gây được tiếng vang trong và ngoài ngành.

Nói cách khác, từ toàn bộ phương pháp sản xuất Internet đến buồng lái thông minh trong mỗi chiếc xe, một kỷ nguyên tự đổi mới với các mô hình lớn làm cơ sở kỹ thuật và thúc đẩy hàng ngàn ngành công nghiệp đang đến.

Theo phương pháp đặt tên của thời đại hơi nước và thời đại điện, nó có thể được đặt tên là "kỷ nguyên lực mô-đun".

Trong "Kỷ nguyên Moli", một trong những kịch bản được quan tâm nhất là ** thiết bị đầu cuối thông minh **.

Lý do rất đơn giản: ngành công nghiệp thiết bị đầu cuối thông minh, đại diện bởi điện thoại thông minh, PC, ô tô thông minh và thậm chí cả thiết bị XR, là một trong những ngành công nghệ liên quan chặt chẽ nhất đến cuộc sống của người đương đại và tự nhiên đã trở thành tiêu chuẩn vàng để kiểm tra sự trưởng thành của các công nghệ tiên tiến.

Do đó, khi làn sóng cường điệu đầu tiên do sự bùng nổ công nghệ mang lại dần lắng xuống, với kịch bản thiết bị đầu cuối thông minh như một mỏ neo, những cơ hội và thách thức mới của "kỷ nguyên năng lượng mô-đun" nên được nhìn nhận và giải thích như thế nào?

Bây giờ, đã đến lúc phá vỡ nó và nhào nặn và chải nó ra.

** Thiết bị đầu cuối thông minh, Chiến trường mới mô hình lớn **

Trước khi phân tích chi tiết những thách thức và cơ hội, chúng ta hãy quay trở lại câu hỏi thiết yếu: tại sao AI tạo ra được đại diện bởi các mô hình lớn rất phổ biến và thậm chí được coi là "cuộc cách mạng công nghiệp lần thứ tư"?

Để đối phó với hiện tượng này, nhiều tổ chức đã tiến hành nghiên cứu để cố gắng dự đoán hoặc tóm tắt sự phát triển của AI tạo ra trong các kịch bản khác nhau, chẳng hạn như "AI tạo ra: Một thế giới mới sáng tạo" của Sequoia Capital.

Trong số đó, nhiều công ty hàng đầu trong ngành đã phân tích các kịch bản hạ cánh và hướng thay đổi tiềm năng của AI tạo ra trong các ngành cụ thể dựa trên kinh nghiệm của chính họ.

Ví dụ, AI phía thiết bị đầu cuối đại diện cho người chơi Qualcomm và cách đây một thời gian đã phát hành sách trắng về tình trạng phát triển và xu hướng của AI tạo ra "AI lai là tương lai của AI".

Từ đó, có thể giải thích ba lý do chính tại sao AI tạo ra phổ biến trong ngành.

Trước hết, bản thân công nghệ đã đủ khó.

Cho dù đó là một mô hình lớn nổi lên một cách thông minh hay một bức tranh AI tạo ra chất lượng giả với chất lượng giả, tất cả đều là về việc sử dụng các hiệu ứng để nói và đó là một khu vực làm việc thực sự liên quan đến văn bản, hình ảnh, video và tự động hóa, thể hiện khả năng tuyệt vời để phá vỡ quy trình làm việc truyền thống.

Thứ hai, có những kịch bản hạ cánh tiềm năng phong phú. Sự đột phá thế hệ của AI do mô hình lớn mang lại đã mang lại cho con người trí tưởng tượng vô hạn ngay từ đầu: những người trải nghiệm sớm nhất nhanh chóng nhận thức được lợi ích của AI tạo ra để làm việc.

Nhu cầu rất lớn về phía người dùng có thể được nhìn thấy từ tốc độ tăng trưởng người dùng của các ứng dụng đại diện như ChatGPT.

** **#### ChatGPT đã phá kỷ lục hơn 100 triệu người dùng đăng ký các ứng dụng phổ biến, nguồn Sequoia Capital

Từ tìm kiếm Internet ban đầu, lập trình, văn phòng, đến sự xuất hiện của du lịch văn hóa, luật, y học, công nghiệp, giao thông vận tải và các ứng dụng cảnh khác, cưỡi gió của AI tạo ra, vượt xa các công ty có thể cung cấp các mô hình lớn cơ bản, nhưng cũng có một số lượng lớn các công ty khởi nghiệp đang thịnh vượng và phát triển.

Nhiều chuyên gia trong ngành tin rằng đối với các doanh nhân, lớp ứng dụng do các mô hình lớn mang lại có cơ hội lớn hơn.

Có một bước đột phá thế hệ của công nghệ ở phía dưới, và một sự bùng nổ mạnh mẽ của nhu cầu ứng dụng ở phía trên, và ** hiệu ứng sinh thái ** được kích thích.

Theo dự đoán của Bloomberg Intelligence, thị trường AI thế hệ sẽ bùng nổ từ 40 tỷ đô la lên 1,3 nghìn tỷ đô la ** vào năm 2032, bao gồm một loạt các bên tham gia vào chuỗi sinh thái, bao gồm cơ sở hạ tầng, mô hình cơ bản, công cụ phát triển, sản phẩm ứng dụng, sản phẩm đầu cuối, v.v.

Sự hình thành của chuỗi sinh thái này đã thúc đẩy những thay đổi mới trong ngành và dự kiến sẽ làm cho AI tiếp tục trở thành năng suất cốt lõi cơ bản.

Dựa trên nền tảng này, chúng ta hãy nhìn vào những gì đang xảy ra trong ngành công nghiệp thông minh ngày nay.

Một mặt, cơn bão ứng dụng AIGC được đại diện bởi các mô hình lớn đang nhanh chóng ** từ đám mây đến thiết bị đầu cuối ** theo nhịp lặp lại của ngày.

ChatGPT là công ty đầu tiên cập nhật chức năng đa phương thức "nói chuyện nghe nhìn" trên thiết bị đầu cuối di động và người dùng có thể chụp ảnh và tải chúng lên, đồng thời họ có thể nói chuyện với ChatGPT để biết nội dung ảnh.

Ví dụ: "Cách điều chỉnh chiều cao của ghế xe đạp":

** **#### và hộp thoại đồ họa GPT-4, đưa ra 5 gợi ý trong vài giây

Qualcomm cũng đã nhanh chóng hiện thực hóa mô hình lớn Stable Diffusion và ControlNet chạy hơn một tỷ thông số ở phía thiết bị đầu cuối và chỉ mất hơn một chục giây để tạo ra hình ảnh AI chất lượng cao trên điện thoại di động.

Nhiều nhà sản xuất điện thoại di động cũng đã thông báo rằng họ sẽ cài đặt "bộ não" của các mẫu lớn cho trợ lý giọng nói của họ.

Và nó không chỉ là điện thoại.

Trong các triển lãm quy mô lớn trong và ngoài nước, như Triển lãm ô tô Thượng Hải, Triển lãm ô tô Thành Đô, Triển lãm ô tô Munich, v.v., sự hợp tác giữa các nhà sản xuất mô hình cơ bản và các nhà sản xuất ô tô ngày càng trở nên phổ biến, và mô hình lớn "lên xe" đã trở thành một điểm cạnh tranh mới trong lĩnh vực buồng lái thông minh.

** **###### Một câu có thể khiến mẫu xe mua nguyên liệu trong APP và bạn có thể nấu ăn khi về nhà

Mặt khác, sự bùng nổ của các ứng dụng ** đã làm trầm trọng thêm tình trạng sức mạnh tính toán đang thiếu hụt. **

Có thể thấy trước rằng chi phí suy luận của mô hình sẽ tăng lên cùng với sự gia tăng số lượng người dùng hoạt động hàng ngày và tần suất sử dụng của họ, và chỉ dựa vào sức mạnh điện toán đám mây là không đủ để nhanh chóng thúc đẩy quy mô của AI tạo ra.

Điều này cũng có thể được nhìn thấy từ thực tế là tất cả các tầng lớp xã hội đang tăng sự chú ý của họ đến sức mạnh tính toán AI phía cuối.

Ví dụ, trình phát AI phía thiết bị đầu cuối Qualcomm đã phát hành một thế hệ nền tảng điện toán PC mới để cải thiện hiệu suất chip PC, sử dụng CPU Oryon do Qualcomm tự phát triển, đặc biệt là NPU được trang bị nó sẽ cung cấp hiệu năng mạnh mẽ hơn cho AI tạo ra, được đặt tên là nền tảng dòng Snapdragon X.

Nền tảng điện toán mới này dự kiến sẽ được phát hành tại Hội nghị thượng đỉnh Snapdragon 2023.

Rõ ràng, cho dù từ góc độ ứng dụng hay sức mạnh tính toán, thiết bị đầu cuối thông minh đã trở thành một trong những kịch bản có tiềm năng hạ cánh lớn nhất của AIGC.

** Rạn san hô AIGC dưới thủy triều**

Mọi thứ thường có hai mặt, và các mô hình lớn từ phát triển nhanh đến hạ cánh cũng vậy.

Khi AI thế hệ đã tăng vọt cho đến ngày hôm nay, nút thắt cổ chai thực sự dưới tiềm năng to lớn của ngành công nghiệp thiết bị đầu cuối thông minh đã xuất hiện.

** Một trong những hạn chế lớn nhất là mức độ thấp nhất của phần cứng. **

Như các nhà đầu tư Sequoia Sonya Huang và Pat Grady đã đề cập trong bài báo phân tích AI mới nhất của họ "Generative AI's Act Two", AIGC đang phát triển nhanh chóng, nhưng nút thắt cổ chai dự kiến không phải là nhu cầu của khách hàng, mà là sức mạnh tính toán phía cung.

Sức mạnh tính toán ở đây chủ yếu đề cập đến các bộ tăng tốc phần cứng AI và máy học, có thể được chia thành năm loại từ góc độ của các kịch bản triển khai:

Hệ thống cấp trung tâm dữ liệu, máy gia tốc cấp máy chủ, máy gia tốc cho các tình huống lái xe hỗ trợ &lái xe tự động, điện toán biên và máy gia tốc công suất cực thấp.

** **###### 5 loại máy gia tốc AI, nguồn bài báo của MIT "Khảo sát và xu hướng tăng tốc AI và ML"

Với sự bùng nổ của ChatGPT, mô hình lớn đã đẩy AIGC ra khỏi vòng tròn, khiến các "** sức mạnh điện toán đám mây**" như trung tâm dữ liệu và bộ xử lý cấp máy chủ nhận được rất nhiều sự quan tâm trong ngắn hạn, và thậm chí là tình trạng thiếu hụt.

Tuy nhiên, khi AI tạo ra bước vào giai đoạn thứ hai, một số câu hỏi về sức mạnh tính toán ngày càng trở nên nổi bật hơn.

**Vấn đề đầu tiên và lớn nhất là chi phí. ** Như đã nêu trong sách trắng "AI lai là tương lai của AI" của Qualcomm, bây giờ đã hơn nửa năm trôi qua, khi các mô hình lớn chuyển từ theo đuổi công nghệ sang hạ cánh ứng dụng, mô hình cơ bản ** đào tạo ** của mỗi công ty đã dần ổn định và hầu hết sức mạnh tính toán đã rơi vào ** lý luận ** của các mô hình lớn.

Trong ngắn hạn, chi phí suy luận là chấp nhận được, nhưng khi ngày càng có nhiều ứng dụng cho các mô hình lớn và ngày càng có nhiều kịch bản ứng dụng, chi phí suy luận trên các máy gia tốc như máy chủ sẽ tăng mạnh, cuối cùng dẫn đến chi phí gọi các mô hình lớn cao hơn so với tự đào tạo các mô hình lớn.

Nói cách khác, sau khi mô hình lớn bước vào giai đoạn thứ hai, nhu cầu dài hạn về sức mạnh tính toán để suy luận sẽ cao hơn nhiều so với một khóa đào tạo duy nhất và chỉ dựa vào "sức mạnh điện toán đám mây" bao gồm các trung tâm dữ liệu và bộ xử lý cấp máy chủ là hoàn toàn không đủ để đưa ra suy luận với chi phí chấp nhận được đối với người dùng.

Theo thống kê của Qualcomm trong sách trắng, lấy công cụ tìm kiếm với mô hình lớn làm ví dụ, chi phí cho mỗi truy vấn tìm kiếm có thể lên tới 10 lần so với các phương pháp truyền thống và chỉ riêng chi phí hàng năm trong lĩnh vực này có thể tăng hàng tỷ đô la.

Điều này được định sẵn để trở thành một hạn chế chính đối với việc hạ cánh của các mô hình lớn.

**Cùng với đó, có các vấn đề về độ trễ, quyền riêng tư và cá nhân hóa. **Qualcomm cũng đã đề cập trong "AI lai là tương lai của AI" rằng các mô hình lớn được triển khai trực tiếp trên đám mây, ngoài việc không đủ số lượng máy tính máy chủ gây ra bởi sự gia tăng người dùng, nhu cầu "xếp hàng để sử dụng" và các lỗi khác, nó cũng bị ràng buộc để giải quyết các vấn đề về quyền riêng tư và cá nhân hóa của người dùng.

Nếu người dùng không muốn tải dữ liệu lên đám mây, các kịch bản sử dụng của các mô hình lớn, chẳng hạn như văn phòng và trợ lý thông minh, sẽ phải chịu nhiều hạn chế và hầu hết các kịch bản này được phân phối ở phía thiết bị đầu cuối; Nếu bạn cần tiếp tục theo đuổi kết quả tốt hơn, chẳng hạn như tùy chỉnh các mô hình lớn để sử dụng riêng, bạn cần trực tiếp sử dụng thông tin cá nhân để đào tạo mô hình lớn.

Dưới nhiều yếu tố khác nhau, "sức mạnh tính toán thiết bị đầu cuối" có thể đóng một vai trò trong lý luận, nghĩa là một số loại bộ xử lý bao gồm lái xe tự động &; hỗ trợ lái xe, điện toán biên (nhúng) và máy gia tốc công suất cực thấp, đã bắt đầu đi vào tầm nhìn của mọi người.

Thiết bị đầu cuối có sức mạnh tính toán rất lớn. Theo dự đoán của IDC, số lượng thiết bị IoT toàn cầu sẽ vượt quá 40 tỷ vào năm 2025, tạo ra gần 80 zettabyte dữ liệu và hơn một nửa dữ liệu cần dựa vào sức mạnh tính toán đầu cuối hoặc biên để xử lý.

Tuy nhiên, thiết bị đầu cuối cũng có các vấn đề như tiêu thụ điện năng hạn chế và tản nhiệt, dẫn đến sức mạnh tính toán hạn chế.

Trong trường hợp này, làm thế nào để sử dụng sức mạnh tính toán khổng lồ ẩn trong thiết bị đầu cuối để vượt qua nút thắt cổ chai mà sự phát triển của sức mạnh điện toán đám mây phải đối mặt đang trở thành một trong những vấn đề kỹ thuật phổ biến nhất trong "kỷ nguyên năng lượng mô-đun".

**Chưa kể ngoài sức mạnh tính toán, việc triển khai các mô hình lớn còn phải đối mặt với những thách thức như thuật toán, dữ liệu và cạnh tranh thị trường. **

Đối với thuật toán, kiến trúc của mô hình cơ bản vẫn chưa được biết. ChatGPT đã đạt được kết quả tốt, nhưng lộ trình kỹ thuật của nó không phải là hướng kiến trúc của mô hình thế hệ tiếp theo.

Đối với dữ liệu, dữ liệu chất lượng cao là điều không thể thiếu để các công ty khác đạt được kết quả mô hình lớn của ChatGPT, nhưng Act Two của Generative AI cũng chỉ ra rằng dữ liệu do công ty ứng dụng tạo ra không thực sự tạo ra rào cản.

Lợi thế được xây dựng bởi dữ liệu là mong manh và không bền vững, và thế hệ tiếp theo của các mô hình cơ bản có khả năng trực tiếp phá hủy "bức tường" này, ngược lại, người dùng liên tục và ổn định có thể thực sự xây dựng nguồn dữ liệu.

Đối với thị trường, hiện tại không có ứng dụng sát thủ nào cho các sản phẩm mô hình lớn và vẫn chưa biết nó phù hợp với loại kịch bản nào.

Trong thời đại này, loại sản phẩm nào được sử dụng và ứng dụng nào có thể phát huy giá trị lớn nhất của nó, thị trường vẫn chưa đưa ra một bộ phương pháp hoặc câu trả lời tiêu chuẩn có thể được tuân theo.

** Để đối phó với loạt vấn đề này, hiện tại có hai cách chính để giải quyết các vấn đề trong ngành. **

Một là cải thiện thuật toán của chính mô hình lớn, mà không làm thay đổi "bản chất" của mô hình, cải thiện tốt hơn kích thước của nó và nâng cao khả năng triển khai của nó trên nhiều thiết bị hơn;

Lấy thuật toán Transformer làm ví dụ, các mô hình như vậy với số lượng tham số lớn phải được điều chỉnh trong cấu trúc nếu chúng muốn chạy ở phía cuối, vì vậy nhiều thuật toán nhẹ như MobileViT đã ra đời trong thời gian này.

Các thuật toán này tìm cách cải thiện cấu trúc và số lượng tham số mà không ảnh hưởng đến hiệu ứng đầu ra, để chúng có thể chạy trên nhiều thiết bị hơn với các mô hình nhỏ hơn.

Hai là cải thiện sức mạnh tính toán AI của chính phần cứng, để các mô hình lớn có thể hạ cánh tốt hơn ở phía cuối.

Các phương pháp này bao gồm thiết kế đa lõi trên ngăn xếp phần cứng và phần mềm phát triển, được sử dụng để cải thiện hiệu suất tính toán phần cứng và tính linh hoạt của các mô hình trên các thiết bị khác nhau, để tăng cường khả năng các mô hình lớn hạ cánh ở phía cuối.

Cái trước có thể được gọi là sự thích ứng của phần mềm với phần cứng, và cái sau là các nhà sản xuất phần cứng thích nghi với sự thay đổi của thủy triều thời đại. Nhưng theo cả hai hướng, có nguy cơ bị vượt qua chỉ bằng cá cược. **

Trong "kỷ nguyên của năng lượng mô-đun", công nghệ đang thay đổi theo từng ngày trôi qua và những đột phá mới có thể xuất hiện từ cả hai phía của phần mềm và phần cứng, và một khi thiếu dự trữ kỹ thuật cần thiết, chúng có thể bị tụt lại phía sau.

Vậy chúng ta nên mù quáng theo dõi hay đơn giản là bỏ lỡ sự phát triển của làn sóng công nghệ này? Không hẳn.

** Đối với các công ty đã khám phá ra giá trị của chính họ trong kỷ nguyên Internet và AI, họ cũng có thể khám phá ý tưởng giải pháp thứ ba trong kỷ nguyên AIGC dựa trên các kịch bản và tích lũy công nghệ của riêng họ. **

Lấy Qualcomm, một công ty AI với cả công nghệ phần mềm và phần cứng, làm ví dụ.

Đối mặt với những thách thức của công nghệ mô hình lớn trong các kịch bản khác nhau, Qualcomm đã nhảy ra khỏi danh tính của một công ty chip và đón nhận làn sóng AIGC từ sớm.

Ngoài việc liên tục cải thiện sức mạnh tính toán AI của chip phía thiết bị đầu cuối, Qualcomm cũng đang đặt ra công nghệ AI cơ bản, cố gắng đẩy nhanh tốc độ của toàn bộ ngành công nghiệp thiết bị đầu cuối thông minh để nắm lấy AIGC như một doanh nghiệp cho phép.

Tuy nhiên, cũng có nhiều khó khăn có thể thấy trước trong phương pháp này:

Đối với các mô hình AI lớn hơn và phức tạp hơn, làm thế nào để đảm bảo hiệu suất trong khi làm cho nó chạy trơn tru trên thiết bị đầu cuối?

Khi nào nên sử dụng các mô hình khác nhau để phân bổ tốt nhất sức mạnh tính toán giữa các thiết bị đầu cuối và đám mây?

Ngay cả khi vấn đề của các mô hình lớn đang được triển khai ở phía thiết bị đầu cuối được giải quyết, phần nào nên được triển khai trên đám mây và phần nào nên được triển khai trên thiết bị đầu cuối và làm thế nào để đảm bảo rằng các kết nối và chức năng giữa các phần khác nhau của mô hình lớn không bị ảnh hưởng?

Nếu lợi thế hiệu suất ở phía thiết bị đầu cuối là không đủ, làm thế nào để giải quyết nó?

......

Những vấn đề này không xuất hiện trong một trường hợp duy nhất, nhưng đã tồn tại trong mọi ngành hoặc kịch bản bị ảnh hưởng bởi AIGC.

Cho dù đó là một phương pháp phá vỡ trò chơi hay trải nghiệm hạ cánh thực tế, câu trả lời chỉ có thể được khám phá từ các kịch bản cụ thể và các trường hợp trong ngành.

**Làm thế nào để phá vỡ sương mù của "Kỷ nguyên năng lượng mô-đun"? **

AIGC đã bước vào giai đoạn thứ hai, các mô hình lớn đang trở nên phổ biến hơn và ngành công nghiệp đã bắt đầu khám phá các cách để hạ cánh.

** Sách trắng "AI lai là tương lai của AI" của Qualcomm đã đề cập rằng lấy điện thoại thông minh và PC làm ví dụ, đã có nhiều trường hợp kịch bản hạ cánh AIGC trong ngành công nghiệp thiết bị đầu cuối thông minh chiến trường mới. **

Các công ty đã triển khai các mô hình nhỏ hơn, lớn hơn cho phía thiết bị đầu cuối cho các vấn đề được cá nhân hóa hơn, bao gồm tìm tin nhắn, tạo tin nhắn trả lời, sửa đổi sự kiện lịch và điều hướng bằng một cú nhấp chuột.

Ví dụ: "đặt chỗ ngồi nhà hàng yêu thích", dựa trên mô hình lớn, theo phân tích dữ liệu người dùng của các nhà hàng yêu thích và lịch trình miễn phí, đưa ra đề xuất lịch trình và thêm kết quả vào lịch.

Qualcomm cho rằng do số lượng tham số mô hình lớn được triển khai bởi thiết bị đầu cuối hạn chế và thiếu mạng nên có thể có "ảo ảnh AI" khi trả lời, và sau đó có thể dựa vào công nghệ dàn dựng để đặt lan can khi mô hình lớn thiếu thông tin để ngăn chặn các vấn đề trên.

Nếu bạn không hài lòng với nội dung được tạo bởi mô hình lớn, bạn cũng có thể gửi câu hỏi lên đám mây để thực thi bằng một cú nhấp chuột, sau đó phản hồi kết quả tạo mô hình lớn với câu trả lời tốt hơn cho phía thiết bị đầu cuối.

Bằng cách này, nó không chỉ có thể giảm áp lực sức mạnh tính toán của các mô hình lớn chạy trên đám mây mà còn đảm bảo rằng các mô hình lớn có thể được cá nhân hóa trong khi bảo vệ quyền riêng tư của người dùng ở mức độ lớn nhất.

** Đối với các nút thắt kỹ thuật cần được phá vỡ như sức mạnh tính toán thiết bị đầu cuối và thuật toán, một số người chơi cũng đã phát triển một số "cách để phá vỡ trò chơi". **

Trong sách trắng, Qualcomm đã giới thiệu một lớp công nghệ mới đã được sử dụng rộng rãi trong sách trắng, chẳng hạn như giải mã đầu cơ, vốn là một vụ hỏa hoạn cách đây một thời gian.

Đây là một phương pháp được Google và DeepMind phát hiện cùng lúc để đẩy nhanh quá trình suy luận của các mô hình lớn và có thể áp dụng một mô hình lớn nhỏ hơn để tăng tốc độ tạo ra các mô hình lớn.

Nói một cách đơn giản, đó là đào tạo một mô hình nhỏ hơn và tạo ra một loạt các "từ ứng cử viên" cho mô hình lớn trước, thay vì để mô hình lớn "suy nghĩ" và tự tạo ra, và trực tiếp đưa ra "lựa chọn".

Vì tốc độ tạo mô hình nhỏ nhanh hơn nhiều lần so với mô hình lớn, một khi mô hình lớn cảm thấy rằng các từ mà mô hình nhỏ đã có sẵn, nó có thể được lấy trực tiếp mà không cần tự tạo từ từ.

Phương pháp này chủ yếu tận dụng thực tế là tốc độ suy luận của các mô hình lớn bị ảnh hưởng nhiều hơn bởi băng thông bộ nhớ so với sự gia tăng số lượng tính toán.

Do số lượng tham số khổng lồ và vượt xa dung lượng bộ đệm, các mô hình lớn có nhiều khả năng bị giới hạn bởi băng thông bộ nhớ hơn là hiệu suất phần cứng máy tính trong quá trình suy luận. Ví dụ, GPT-3 cần đọc tất cả 175 tỷ tham số mỗi khi nó tạo ra một từ và phần cứng máy tính thường không hoạt động trong khi chờ dữ liệu bộ nhớ từ DRAM.

Nói cách khác, khi mô hình thực hiện suy luận hàng loạt, có rất ít sự khác biệt về thời gian giữa việc xử lý 100 mã thông báo và một mã thông báo tại một thời điểm.

Do đó, việc sử dụng lấy mẫu đầu cơ không chỉ có thể dễ dàng chạy các mô hình lớn với hàng chục tỷ tham số, mà còn đặt một phần sức mạnh tính toán ở phía thiết bị đầu cuối, đảm bảo tốc độ suy luận trong khi vẫn giữ được hiệu ứng tạo của các mô hình lớn.

......

Nhưng cho dù đó là một kịch bản hay một công nghệ, cuối cùng, chúng ta phải tìm ra các điểm thích ứng của nhau để tạo ra giá trị ứng dụng đáng kể **, giống như mối quan hệ giữa phần mềm và phần cứng không thể tách rời:

Những đột phá về thuật toán phần mềm như AI khi tìm kiếm các kịch bản hạ cánh thiết bị đầu cuối thông minh, chắc chắn sẽ phải đối mặt với các yêu cầu kỹ thuật kết hợp với phần cứng AI di động như Qualcomm.

Bao gồm điện thoại thông minh, PC, XR, ô tô và Internet of Things, làm thế nào các phân khúc khác nhau của ngành công nghiệp thiết bị đầu cuối thông minh có thể tìm thấy trò chơi và giá trị của riêng họ dựa trên các điểm nóng AIGC?

Làm thế nào để doanh nghiệp có thể nắm bắt làn sóng này của thời đại để kích thích giá trị ứng dụng của loại công nghệ này và không bỏ lỡ cơ hội chuyển đổi năng suất trong toàn ngành?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)