OpenAI đang gặp nguy hiểm

Sản xuất | Tiger Sniff Technology Group Tác giả | Tề Kiến Biên tập | Liêu Anh

Nguồn hình ảnh: Được tạo bởi Unbounded AI‌

Vào ngày 7 tháng 8, một công ty khởi nghiệp AI trong nước khác đã phát hành mô hình AI thương mại miễn phí và mã nguồn mở của riêng mình: XVERSE-13B. Công ty có tên Yuanxiang XVERSE được thành lập bởi Yao Xing, cựu phó chủ tịch của Tencent và là người sáng lập phòng thí nghiệm AI của Tencent.

Kể từ khi Meta phát hành các mô hình lớn sê-ri LLaMA 2 mã nguồn mở để sử dụng thương mại miễn phí vào tháng 7, một làn sóng "mã nguồn mở" mới đang hình thành trong thị trường mô hình quy mô lớn AI.

Vào ngày 2 tháng 8, Wenxin Qianfan, một nền tảng mô hình quy mô lớn AI của Baidu, đã công bố quyền truy cập vào loạt mô hình mã nguồn mở đầy đủ của LLaMA2. Số lượng mô hình quy mô lớn có thể được gọi trên nền tảng đã tăng lên 33 .Ngoại trừ 3 mẫu Wenxin, 30 mẫu còn lại đều là mã nguồn mở, bao gồm ChatGLM2, RWKV, MPT, Dolly, OpenLLaMA, Falcon, v.v.

Một ngày sau đó, Alibaba Cloud cũng tuyên bố gia nhập hàng ngũ mô hình nguồn mở. Mô hình tham số Tongyi Qianwen 7 tỷ mã nguồn mở bao gồm mô hình chung Qwen-7B và mô hình đối thoại Qwen-7B-Trò chuyện. Hai mô hình này đã được ra mắt trên cộng đồng Mota. Chúng là mã nguồn mở, miễn phí và có sẵn trên thị trường.

Thật thú vị, thái độ tích cực này đối với nguồn mở và tính mở bắt đầu với Microsoft, chủ sở hữu lớn của mô hình nguồn đóng ChatGPT. ** Vào ngày 18 tháng 7, Microsoft đã thông báo rằng họ sẽ hợp tác với Meta để phát hành phiên bản thương mại mã nguồn mở của mô hình LLaMA 2, cung cấp cho các doanh nghiệp các lựa chọn thay thế cho các mô hình OpenAI và Google. **Vị thế độc quyền của OpenAI trong thị trường mô hình AI quy mô lớn dường như đang bị "nhắm tới" bởi toàn bộ ngành, ngay cả những đối tác thân cận nhất.

Là mô hình ngôn ngữ lớn số một được công nhận trên toàn cầu, GPT-4 của OpenAI hiện là mô hình ngôn ngữ lớn duy nhất có số lượng lớn người dùng sẵn sàng trả tiền cho nó.

Học sinh đứng đầu lớp thường không có động lực tham gia học nhóm. Tương tự, **OpenAI không có lý do hay động cơ nào để mở mã nguồn. **

Tuy nhiên, với nguồn mở hoàn toàn của LLaMA 2, ngày càng có nhiều nhà phát triển đầu tư vào Meta và các mô hình nguồn mở khác nhau. Giống như Android sử dụng nguồn mở để chống lại iOS, một số lượng lớn các mô hình AI nguồn mở đang tích cực vượt qua các rào cản kỹ thuật của GPT-4 và OpenAI xung quanh bằng một hệ sinh thái nguồn mở. **

Tại sao lại là mã nguồn mở?

Khi OpenAI lần đầu tiên ra mắt chức năng plug-in, nhiều người đã so sánh mô hình AI với Windows, iOS và Android trong tương lai. Giờ đây, với việc phát hành LLaMA 2, mô hình AI lớn không chỉ là một chức năng mà ngay cả cấu trúc thị trường cũng đang phát triển theo hướng của hệ điều hành.

Được khởi xướng bởi LMSYS Org, một tổ chức do UC Berkeley đứng đầu, đây là cuộc thi xếp hạng cho các mô hình ngôn ngữ lớn (LLM); tính đến ngày 20 tháng 7, phiên bản mới nhất của bảng xếp hạng đã thống kê được 40 mô hình AI lớn và năm mô hình hàng đầu vẫn chưa được đóng nguồn Model (Độc quyền), đó là ba mẫu GPT-4, GPT-3.5-turbo và Claude. Tuy nhiên, 34 mô hình sau đây, ngoại trừ PaLM-Chat-Bison-001 của Google, đều là các mô hình nguồn mở, 15 trong số đó là phi thương mại.

*Bảng xếp hạng của LMSYS Org Large Language Models (LLM) được phát hành vào ngày 20 tháng 7 Đấu trường Chatbot: Tính xếp hạng Elo bằng cách sử dụng hơn 50.000 phiếu bầu của người dùng. MT-Bench: Một tập hợp các bài toán nhiều vòng đầy thử thách. MMLU (5-shot): Thử nghiệm đo độ chính xác đa tác vụ của một mô hình trên 57 tác vụ. *

Mặc dù xét về khả năng model, nhìn toàn thị trường, không model nào bất kể mã nguồn mở hay mã nguồn đóng có thể dám đối đầu trực diện với GPT-4. Tuy nhiên, Tigers không thể chống lại bầy sói, và họ không thể đánh bại các mô hình lớn của GPT-4, họ đã chọn cách "đổi làn và vượt lên" và sử dụng mã nguồn mở để chiếm lấy hệ sinh thái ứng dụng. hơi giống cuộc chiến của Android với iOS.

"Ngay bây giờ, tất cả các mô hình lớn nguồn mở đều có một mục đích và đó là tiếp thị."

Người sáng lập một công ty nghiên cứu và phát triển mô hình quy mô lớn nguồn mở trong nước đã thừa nhận với Tiger Sniff rằng lý do chính để thúc đẩy các mô hình quy mô lớn nguồn mở và hệ thống Android nguồn mở là để giành lấy thị trường miễn phí. "Nhiều công ty lớn đã tung ra các mô hình AI lớn, hoặc thậm chí chỉ tạo một ứng dụng dựa trên một mô hình có sẵn, sau đó bắt đầu quảng cáo rầm rộ. Thực tế, đối với người dùng các mô hình lớn cơ bản, chi càng nhiều tiền cho quảng cáo càng tốn kém hơn Nó thực sự không phải mã nguồn mở cho mô hình.” Đây cũng là cách tốt nhất để các công ty AI chứng tỏ sức mạnh của mình.

Đầu tiên, các mô hình nguồn mở dễ đánh giá hơn các mô hình đóng. Do mã và bộ dữ liệu của các mô hình nguồn mở được cung cấp công khai nên các nhà nghiên cứu có thể trực tiếp kiểm tra kiến trúc, dữ liệu đào tạo và quy trình đào tạo của mô hình để tiến hành phân tích sâu hơn về mô hình nhằm hiểu điểm mạnh và điểm yếu của nó.

"Một số mô hình AI lớn dường như rất có khả năng, nhưng chúng không phải là mã nguồn mở và bạn chỉ có thể xem kết quả đầu ra của nó."

So với mô hình mã nguồn mở, mô hình mã nguồn đóng chỉ có thể hiểu được ưu điểm và nhược điểm của mô hình thông qua đánh giá hiệu suất của mô hình. Điều này dẫn đến thực tế là hiệu suất của các mô hình nguồn đóng có thể bị phóng đại một cách giả tạo hoặc những thiếu sót của chúng bị che giấu. Tính minh bạch của mô hình nguồn mở có thể giúp các nhà phát triển hiểu sâu hơn về mô hình và đánh giá nó một cách công bằng hơn.

Đối với những người đến sau, có một vấn đề khác với mô hình nguồn đóng: rất dễ đặt câu hỏi về tính nguyên bản của công nghệ. Nhiều nhà phát triển mô hình lớn đã từng nói với Huxiu rằng: "Đối với những mô hình không phải là mã nguồn mở, nói trắng ra là, cho dù đó là LLaMA shell, hay đơn giản là gọi giao diện ChatGPT ở chế độ nền, ai biết được?"

Khi làn sóng đầu tiên của các mô hình lớn AI trong nước xuất hiện, những tiếng nói nghi ngờ như vậy đã được lan truyền rộng rãi trên Internet. Đối với những mô hình AI lớn không phải là mã nguồn mở, rất khó để chứng minh chúng vô tội, để chứng minh rằng họ không gọi API ChatGPT, một số công ty thậm chí đã di chuyển máy chủ lý luận và rút cáp mạng để chứng minh trên điểm.

Nguồn mở chắc chắn là một trong những cách tốt nhất để tự chứng nhận các mô hình AI lớn. Nhưng giá trị thực của **nguồn mở không phải là khả năng tự chứng nhận, mà là nắm bắt hệ sinh thái. **

"Sau khi phát hành LLaMA 2, nó chắc chắn sẽ nhanh chóng chiếm lĩnh hệ sinh thái OpenAI." Một nhà phát triển mô hình lớn nói với Huxiu rằng mặc dù GPT-4 gần như được ngành công nghiệp công nhận là có khả năng mạnh nhất, nhưng các mô hình sau GPT-3 không phải là mã nguồn mở .Hơn nữa, tính mở của giao diện API của GPT-4 cũng rất thấp nên có nhiều hạn chế trong việc phát triển mô hình GPT. Do đó, nhiều nhà phát triển đã chọn các mô hình nguồn mở như LLaMA, những mô hình nguồn mở này không chỉ có thể tinh chỉnh các hướng dẫn mà còn có thể tiến hành nghiên cứu về mô hình cơ bản.

"LLaMA chắc chắn phổ biến hơn đối với các nhà phát triển so với OpenAI."

Khi LLaMA 2 được phát hành lần đầu tiên vào ngày 19 tháng 7, đã có hơn 5.600 dự án trên GitHub với các từ khóa bao gồm "LLaMA" và hơn 4.100 dự án bao gồm "GPT-4". Hai tuần sau khi phát hành, tốc độ tăng trưởng của LLaMA nhanh hơn, tính đến thời điểm báo chí đã có hơn 6.200 "LLaMA" và hơn 4.400 "GPT-4".

Mặt khác, các mô hình nguồn mở có thể được tải xuống cục bộ để triển khai tư nhân hóa, tạo điều kiện đào tạo AI cho các công ty thương mại. Các ứng dụng AI của các công ty như vậy cần được đào tạo dựa trên dữ liệu kinh doanh của chính họ và mô hình AI quy mô lớn được triển khai riêng có thể bảo vệ an ninh dữ liệu ở mức độ cao nhất. Đồng thời, có nhiều lựa chọn hơn về sức mạnh tính toán để triển khai tư nhân hóa, cho dù đó là dịch vụ đám mây, triển khai cục bộ hay thậm chí là sức mạnh tính toán phân tán của nhiều IDC, giúp giảm đáng kể chi phí đào tạo và lý luận mô hình.

Mặc dù ChatGPT đã thu hoạch được 100 triệu người dùng hoạt động hàng tháng chỉ sau hai tháng, nhưng trong hệ sinh thái dành cho nhà phát triển, tốc độ mà mô hình nguồn mở thu hút tâm trí người dùng dường như nhanh hơn.

Hiện tại, nhiều công ty AI trong nước đã chọn phát hành các mô hình mã nguồn mở. Chúng bao gồm mô hình mã nguồn mở ChatGLM-6B do Zhipu AI phát hành, MOSS do Đại học Fudan phát hành, Wudao Tianying Aquila do Viện nghiên cứu Zhiyuan phát hành và Baichuan-7B (13B) của Baichuan Intelligent, v.v. Trong số đó, ChatGLM-6B, một mô hình lớn mã nguồn mở do **Zhipu AI phát hành, đã được tải xuống hơn 4 triệu lần trên toàn thế giới và đã nhận được 32.000 sao trên GitHub, nhiều hơn 3.000 sao so với LLaMA. **

"Nếu chúng tôi không tạo ra một mô hình nguồn mở, thị trường sẽ sớm tràn ngập LLaMA." Một giám đốc điều hành của một công ty AI đã đưa ra một mô hình nguồn mở nói với Huxiu rằng nguồn mở là một bước quan trọng trong sự phát triển của AI của Trung Quốc mô hình lớn.

Một số mô hình lớn AI mã nguồn mở trong nước

Trên thực tế, trước khi xu hướng LLM bắt đầu, AI tổng quát đã chiến đấu trong cuộc chiến giữa nguồn mở và nguồn đóng.

**Với một số lượng lớn các nhà phát triển và ứng dụng sản phẩm, mô hình đồ thị Wensheng nguồn mở Khuếch tán ổn định gần như đã đẩy mô hình nguồn đóng đầu tiên của OpenAI Dall-E 2 vào một góc. Mặc dù người dùng thường tin rằng khả năng mô hình của Khuếch tán ổn định không tốt bằng một sản phẩm mã nguồn đóng khác MidJourney, Khuếch tán ổn định đã chiếm lĩnh một số lượng lớn thị trường đồ thị Vincent nhờ các thuộc tính nguồn mở và miễn phí của nó, đồng thời đã trở thành mô hình đồ thị Vincent chính thống nhất.Công ty phát triển RunwayML And Stability AI của nó cũng đã nhận được rất nhiều sự quan tâm và tài trợ. **

Mô hình nguồn mở của LLaMA 2 dường như đang có ý định ép buộc OpenAI trong lĩnh vực LLM.

Mã nguồn mở với hàng hóa

LLaMA 2 hiện là mã nguồn mở, cả ba mô hình trong sê-ri: 7 tỷ, 13 tỷ và 70 tỷ phiên bản tham số. Tuy nhiên, cũng có tin đồn trên thị trường rằng "Meta thực sự có một phiên bản với thông số lớn hơn chưa được phát hành. Phiên bản tiếp theo có thể có phiên bản với thông số lớn hơn, nhưng nó có thể không phải là mã nguồn mở."

Điều đáng chú ý là hiện nay, nhiều mô hình nguồn mở không phải tất cả đều là nguồn mở. Trong mô hình Khai sáng 3.0 do Viện nghiên cứu Zhiyuan phát hành, chỉ có mô hình ngôn ngữ cơ bản "Tianying" là nguồn mở; ChatGLM do Zhipu AI phát hành mới chỉ mở ra một phần của loạt mô hình và mô hình tham số lớn hơn 130 tỷ vẫn còn đã đóng.nguồn. **

Bất kể LLaMA 2 có được "dành riêng" cho các mẫu lớn hơn hay không, hình thức "miễn phí" chắc chắn sẽ đẩy nhanh quá trình hình thành Meta trên thị trường mẫu lớn và đẩy nó vào "con đường cũ" của Android.

Thông qua hệ sinh thái nguồn mở, hệ thống Android đã tích lũy được một số lượng lớn các nhà phát triển và người dùng trên khắp thế giới. Về mặt sinh thái công nghệ, nó đã kiểm tra và cân bằng rất nhiều hệ thống mã nguồn đóng hàng đầu iOS, thậm chí còn hình thành thế độc quyền của riêng mình ở một số thị trường. Kể từ năm 2018, Liên minh châu Âu đã phạt Google hơn 4 tỷ euro do cơ chế độc quyền của hệ thống Android. Từ mức phạt cao ngất trời này, chúng ta cũng có thể thấy hệ thống nguồn mở Android mang lại lợi nhuận như thế nào.

Theo báo cáo của hãng nghiên cứu Sensor Tower, chi tiêu của người dùng trên Google Play sẽ vào khoảng 53 tỷ USD vào năm 2022 và con số này sẽ tăng lên 60 tỷ USD vào năm 2023. Theo một báo cáo được công bố bởi một tổ chức nghiên cứu khác, Statista, tính đến tháng 1 năm 2022, có khoảng 140.000 ứng dụng trong Cửa hàng Google Play.

Ở giai đoạn này, mô hình AI mã nguồn mở rõ ràng là chưa phổ biến như điện thoại di động. Tuy nhiên, ngay cả khi AI thực sự phổ biến như điện thoại di động, những gã khổng lồ như Meta sẽ không dễ dàng buông tha cho những công ty đã kiếm bộn tiền với LLaMA 2.

Trong thỏa thuận nguồn mở của LLaMA 2, có một quy định như sau: **Nếu số người dùng hoạt động hàng tháng vượt quá 700 triệu, bạn phải xin giấy phép từ Meta. Meta có thể, theo quyết định riêng của mình, cấp phép cho bạn và bạn sẽ không có quyền thực hiện bất kỳ quyền nào trong số này. **

Đồng thời, ngoài phiên bản mã nguồn đóng của mô hình mã nguồn mở và ứng dụng các mô hình lớn AI, nó còn có thể giúp sức mạnh tính toán "hốt hàng".

Hai nhà sản xuất đầu tiên ở Trung Quốc quảng bá mô hình AI quy mô lớn, Baidu và Ali, đều là nhà sản xuất đám mây. Hai nhà cung cấp đám mây khác là Tencent Cloud và Huawei Cloud mặc dù không có sản phẩm LLMs như Wenxin Yiyan và Tongyi Qianwen nhưng họ cũng đang tiếp tục kêu ca về các mô hình AI. Lý do chính đằng sau điều này là "hiệu ứng mang" của mô hình lớn trên đám mây.

"Việc công bố một số hành động trên các mô hình quy mô lớn AI cũng được thị trường và khách hàng cùng thúc đẩy. Trong vài tháng qua, đã có quá nhiều khách hàng đến hỏi về các mô hình quy mô lớn." Huxiu rằng sức mạnh tính toán đã xếp hàng , đó là bằng chứng tốt nhất về khả năng vận chuyển hàng hóa của mô hình lớn AI.

**Mô hình không cần kiếm tiền nhưng sức mạnh tính toán phải sinh lãi. **Alibaba đã mở Tongyi Qianwen và Baidu đã giới thiệu 30 mô hình nguồn mở trên nền tảng mô hình quy mô lớn Wenxin Qianfan. Hai hành động này nhằm cung cấp khả năng AI "miễn phí" cho người dùng. Người dùng sử dụng mô hình nguồn mở không còn trả tiền cho AI, nhưng miễn là AI của họ chạy trên Alibaba Cloud và Baidu Smart Cloud, họ sẽ phải trả tiền cho sức mạnh tính toán.

"AI cũng nên quay lại với ý tưởng về đám mây và kiếm tiền từ đám mây." Xin Zhou, tổng giám đốc của Baidu Smart Cloud AI và Nền tảng dữ liệu lớn, cho biết ý định ban đầu là mở ra nền tảng mô hình lớn là tạo ra giá trị cho doanh nghiệp của khách hàng, vừa tạo ra giá trị lại có thể nâng cao độ gắn bó của khách hàng cũ và mở rộng thêm nhiều khách hàng mới. Điều này giúp ích rất nhiều trong việc mở rộng hiệu ứng quy mô của các nhà cung cấp đám mây.

Miễn phí đắt hơn

"10 triệu, đó là số tiền tương đương với giá khởi điểm để tùy chỉnh một mẫu lớn."

Người sáng lập một công ty mô hình mã nguồn mở quy mô lớn đã báo giá cho người trung gian đến tư vấn qua điện thoại.

"Sau khi mô hình nguồn mở được người dùng công nhận, bạn có thể nói chuyện với những người khác về phí dịch vụ để phát triển tùy chỉnh." Sau khi người sáng lập cúp điện thoại, anh ấy giải thích với Huxiu rằng đối với một mô hình như LLaMA 2, chi phí phát triển là ít nhất là những gì nó có giá hàng chục triệu đô la. Do đó, thị trường mà anh nhắm đến phải gấp hàng chục, hàng trăm lần chi phí phát triển.

Theo quan điểm hiện tại, cách tốt nhất để các công ty **AI kiếm tiền từ các mô hình nguồn mở là bắt đầu với các dịch vụ. **

May mắn thay, hầu hết người dùng AI các mô hình lớn đều rất cần những dịch vụ này.

"Mô hình này là mã nguồn mở, miễn phí và có sẵn trên thị trường. Điều đó có nghĩa là bắt đầu từ tải xuống mô hình, triển khai mô hình, đào tạo, điều chỉnh và phát triển ứng dụng trong các ứng dụng thực tế, tất cả các công việc cần phải được thực hiện bởi chính bạn." nói với Huxiu, hầu hết các nhà cung cấp mô hình nguồn đóng sẽ cung cấp dịch vụ đào tạo và triển khai, đồng thời có thể tùy chỉnh các chức năng phát triển theo nhu cầu của người dùng. Nhưng nếu bạn sử dụng mô hình nguồn mở, bạn phải tự mình thực hiện tất cả các công việc này, không ai giúp bạn đào tạo, không ai tìm cho bạn sức mạnh tính toán và không ai giúp bạn tùy chỉnh sự phát triển.

"Trên thực tế, các nhà sản xuất mô hình nguồn đóng bán dịch vụ." Người phụ trách một tổ chức giáo dục trực tuyến đã thực hiện nghiên cứu ứng dụng AI dựa trên mô hình LLaMA nói với Huxiu, "Mô hình nguồn mở dường như miễn phí , nhưng trong quá trình triển khai, vẫn cần phải chi rất nhiều tiền.” Sau khi thêm mô hình AI, chi phí nhân lực và sức mạnh tính toán trong bộ phận CNTT đã tăng lên đáng kể.

Mặc dù đào tạo và điều chỉnh dựa trên các mô hình mã nguồn mở không khó đối với hầu hết nhân sự CNTT. Tuy nhiên, để thực hiện nghiên cứu chuyên sâu và phát triển mô hình, vẫn cần có một số dự trữ kỹ thuật về thuật toán và AI. Khi khái niệm về các mô hình AI quy mô lớn ngày càng trở nên phổ biến, giá của những tài năng trong lĩnh vực này cũng đang tăng lên.

"Chi phí nhân công tăng là thả nổi nhưng chi phí máy chủ và phần cứng là có thật. Từ đầu tư mô hình lớn đến nay, chi phí của chúng tôi tăng khoảng 20%-30%.", người phụ trách cho biết của tổ chức giáo dục trực tuyến nói trên Hiện tại, tổ chức của anh ấy vẫn đang trong giai đoạn khám phá bối cảnh AI và khó khăn lớn nhất là nó cần thử nghiệm từng cảnh. "Nếu cái nào hỏng, hãy thay cái khác. Trong quá trình này, mỗi bước đều tốn tiền."

Về vấn đề này, Huxiu đã hỏi một người trong nội bộ Baidu Smart Cloud về dịch vụ và chi phí của Baidu Wenxin Qianfan về mặt triển khai. Nó sẽ tiết kiệm tiền.**”

Trên thực tế, bất kể đó là mô hình nguồn mở hay mô hình nguồn đóng, chi phí triển khai mô hình được tính trên cơ sở mỗi người/ngày và sẽ không có sự khác biệt cơ bản về chi phí năng lượng tính toán cho các lần tiếp theo. đào tạo và lý luận. "**Tuy nhiên, việc sử dụng các mô hình nguồn mở để tự đào tạo, triển khai và phát triển sẽ chỉ khiến quá trình này trở nên rất rắc rối." Người trong cuộc của Baidu cho biết chi phí triển khai cụ thể phụ thuộc vào dự án cụ thể và sự khác biệt là rất lớn. Tuy nhiên, thực tế không có sự khác biệt cơ bản giữa nguồn mở và nguồn đóng về chi phí triển khai và sử dụng. **Và từ góc độ bảo mật dữ liệu, hầu hết các mô hình nguồn đóng cũng có thể được triển khai riêng tư.

**Ở giai đoạn này, AI vẫn khó đạt được tính toàn diện. **

Đối với hầu hết các công ty tham gia kinh doanh trên Internet, họ đều có nhóm R&D CNTT của riêng mình, khi mô hình lớn xuất hiện, họ sẽ sớm có thể thành lập một nhóm "thành lập" để phát triển các ứng dụng AI. Nhưng đối với nhiều ngành bán lẻ, sản xuất truyền thống và dịch vụ, chuyển đổi kỹ thuật số là một bài toán khó, họ thực sự khó nghiên cứu quá trình đào tạo, triển khai và lý luận của các mô hình lớn AI.

Đối với những công ty này, sản phẩm AI tốt nhất là một plug-in AI có mục đích chung. "Những gì chúng tôi cần chỉ là một robot dịch vụ khách hàng mà các cuộc trò chuyện của nó trông không quá ngu ngốc. Tôi đã yêu cầu tôi học cách đào tạo người mẫu, điều này hơi thú vị." trong sáu tháng qua, anh ấy chỉ nghe Người ta nói rằng khả năng đối thoại của AI mạnh hơn trước, nhưng ChatGPT vẫn chưa được thử. Mặc dù anh ấy cũng sẵn sàng tiếp nhận các công nghệ mới, nhưng đó không phải là động lực đủ để anh ấy dành thời gian tìm hiểu và đầu tư tiền vào AI bây giờ.

“Trừ khi có plug-in trong nền tảng hoặc phần mềm tôi đang sử dụng hiện tại, bằng không tôi chỉ cần nhặt nó lên là có thể sử dụng được, nếu không tôi sẽ không nghĩ nhiều đến việc chi tiền để nâng cấp trợ lý AI ngay lập tức ." Thấp.

"** Người bán cần AI để làm điều đó và AI có thể được áp dụng và trao quyền mà không cần cảm giác.**" Nhà sản xuất SaaS Weimob đã tạo ra một ứng dụng WAI như vậy trong tiếp thị kỹ thuật số, giúp người bán sử dụng các khả năng của AI dưới dạng nhúng các ứng dụng hiện có. Cung cấp cho người bán khả năng đối thoại AI, tạo văn bản và hình ảnh dựa trên các mô hình ngôn ngữ lớn.

Kết nối công khai các mô hình lớn với các công cụ dịch vụ SaaS có phần giống với cách gọi mô hình của Baidu Wenxin Qianfan. Mặc dù chỉ có các cuộc gọi giao diện và Finetune được thực hiện, nhưng nó cung cấp cho người dùng khả năng hạ cánh AI nhiều hơn, nhanh hơn và ổn định hơn.

"Các mô hình nguồn mở có thể giúp người dùng bắt đầu dễ dàng hơn và hiện tại, nhiều mô hình nguồn mở được cập nhật nhanh hơn các nhà sản xuất lớn." đến tay người dùng Trong tay bạn, thứ mà người dùng thực sự cần là AI "cắm là chạy". **

Đối với hầu hết người dùng vẫn đang trong giai đoạn thử nghiệm, thử nghiệm và trải nghiệm các mô hình lớn AI, ngưỡng cho các mô hình nguồn mở rõ ràng là thấp hơn và chi phí khởi động gần như bằng không.

Nhiều người dùng đã sử dụng mô hình nguồn mở ngay từ đầu và họ sẽ tiếp tục sử dụng nó trong tương lai. Các vấn đề triển khai và đào tạo được đề cập ở trên đang tạo ra một chuỗi ngành dịch vụ cho các mô hình nguồn mở.

Chen Ran Trong làn sóng bùng nổ mô hình lớn này, OpenCSG mới được tạo ra đang kinh doanh dịch vụ xung quanh mô hình lớn nguồn mở.

Dịch vụ mô hình lớn do OpenCSG cung cấp chủ yếu nhằm mục đích đào tạo và triển khai các mô hình nguồn mở cho các doanh nghiệp. Từ việc lựa chọn các mô hình nguồn mở, đến sức mạnh tính toán phân tán lai, kết hợp với đào tạo mô hình kinh doanh và phát triển ứng dụng phụ trợ, v.v., nó có thể cung cấp dịch vụ cho các doanh nghiệp.

"** Theo tôi, các mô hình lớn giống như tất cả SaaS. Các ngành công nghiệp thượng nguồn và hạ nguồn sẽ dần phong phú hơn và khách hàng sẽ không chỉ tập trung vào khả năng của mô hình." Chen Ran tin rằng nhu cầu cuối cùng của khách hàng không phải là tìm thấy nhiều nhất mô hình có khả năng, nhưng việc sử dụng các mô hình lớn AI tốt hơn, dễ dàng hơn và đơn giản hơn để phục vụ doanh nghiệp của mình.

Hệ sinh thái nguồn mở xung quanh AI

Trong toàn bộ chuỗi ngành công nghiệp AI, nguồn mở vượt xa các mô hình. Từ nghiên cứu và phát triển đến triển khai đến ứng dụng, hầu hết mọi liên kết đều không thể tách rời khỏi chủ đề nguồn mở.

**Các thuật toán, sức mạnh tính toán, dữ liệu và ba yếu tố AI đều yêu cầu hỗ trợ nguồn mở. **

Ở cấp độ thuật toán, các mô hình lớn AI mã nguồn mở đang ở giai đoạn tương đối muộn. Trong giai đoạn đầu nghiên cứu và phát triển AI, hầu hết tất cả các mô hình AI đều sử dụng các khung máy học, tương đương với việc xây dựng các hộp công cụ AI. Các khung máy học chính thống hiện tại, bao gồm TensorFlow, Pytorch và PaddlePaddle (mái chèo bay), đều là các khung mã nguồn mở.

Ở cấp độ dữ liệu, bộ dữ liệu mã nguồn mở Commen Crowl là một nguồn dữ liệu quan trọng trong quy trình đào tạo mô hình GPT. Hiện tại, nhiều tổ chức và công ty dữ liệu đã phát hành các sản phẩm nguồn mở trên bộ dữ liệu đào tạo AI, bao gồm bộ dữ liệu COIG-PC của Viện nghiên cứu Zhiyuan và bộ dữ liệu đa phương thức DOTS-MM-0526 của Haiti AAC.

Đối với nhà xuất bản tập dữ liệu, nguồn mở không chỉ có thể nâng cao tầm ảnh hưởng và giá trị thương hiệu, mà tập dữ liệu nguồn mở còn có thể thu thập phản hồi tích cực từ cộng đồng nguồn mở để tìm và sửa lỗi hoặc sự không nhất quán trong dữ liệu. Đánh giá bên ngoài này giúp cải thiện chất lượng dữ liệu đồng thời làm phong phú thêm hệ sinh thái sản phẩm của nhà xuất bản.

"**Các kỹ sư thuật toán thường gặp phải vấn đề thiếu dữ liệu trong quá trình nghiên cứu và phát triển. Dữ liệu chất lượng cao có thể mang lại những cải tiến về chất lượng cho việc đánh giá mô hình. **đất nước của tôi hiện đang phải đối mặt với tình trạng khan hiếm bộ dữ liệu chất lượng cao, điều này cũng cản trở tiếng Trung Quốc Li Ke, COO của Haiti AAC cho biết, Haiti AAC là một trong những nhà cung cấp dữ liệu đào tạo của mô hình mã nguồn mở LLaMA 2.

** Về sức mạnh tính toán, nút cổ chai lớn nhất trong quá trình phát triển AI, khung chip mã nguồn mở cũng đang kích thích sự phát triển của ngành. **

Ngày 4/8, Qualcomm công bố thành lập liên doanh với 4 công ty bán dẫn nhằm đẩy nhanh quá trình thương mại hóa chip dựa trên kiến trúc mã nguồn mở RISC-V. Hiện tại có ba khung chip chính trên thị trường: x86 được sử dụng bởi CPU Intel, Arm được sử dụng bởi GPU Nvidia và RISC-V, một khung chip nguồn mở.

"RISC-V có thể cung cấp một môi trường có thể lập trình. Nhóm phát triển chip có thể sử dụng RISC-V để thực hiện nhiều công việc tiền xử lý và hậu xử lý, đồng thời cũng có thể thêm các bộ gia tốc đặc biệt hoặc mô-đun chức năng đáp ứng nhu cầu của người dùng để đáp ứng nhu cầu của người dùng "Gang Zhijian, phó chủ tịch cấp cao về tiếp thị và phát triển kinh doanh của SiFive, cho biết hệ sinh thái RISC-V cung cấp nhiều lựa chọn cho việc nghiên cứu và phát triển chip, giúp ích rất nhiều cho nhu cầu về chip AI đang tăng nhanh hiện nay.

Arm và x86 có hệ sinh thái tương đối khép kín so với RISC-V. **Trong hệ sinh thái Arm, người dùng chỉ có thể chọn các tùy chọn hạn chế do Arm cung cấp, trong khi hệ sinh thái RISC-V có nhiều công ty tham gia và sẽ có nhiều loại sản phẩm và lựa chọn hơn. **

Kiến trúc nguồn mở cũng đang kích thích ngành công nghiệp chip tăng tốc cạnh tranh. Gang Zhijian cho biết: "** Là nhà cung cấp dịch vụ kiến trúc chip nguồn mở, chúng tôi cũng sẽ cạnh tranh với các công ty khác. Nhưng dù chúng tôi thắng hay các công ty khác thắng, điều này loại cạnh tranh Cuối cùng, nó sẽ thúc đẩy sự thịnh vượng và tiến bộ của hệ sinh thái RISC-V.**”

Mặc dù kiến trúc tập lệnh RISC-V là mã nguồn mở và miễn phí, IP lõi do các nhà sản xuất thiết kế chip hình thành dựa trên sự phát triển thứ cấp của kiến trúc tập lệnh RISC-V có quyền sở hữu trí tuệ độc lập và có thể được ủy quyền thông qua các khoản phí bên ngoài. Theo dữ liệu từ RISC-V International Foundation, số lượng thành viên sẽ tăng hơn 26% so với cùng kỳ năm ngoái vào năm 2022 và tổng số đơn vị thành viên sẽ vượt quá 3.180, bao gồm 70 quốc gia/khu vực, bao gồm cả Qualcomm, Intel, Google, Alibaba, Huawei, UNISOC, Sharp và nhiều công ty chip hàng đầu khác.

Nguồn mở là một lợi thế cho RISC-V, nhưng nó cũng tạo ra một số vấn đề. RISC-V chỉ có hơn 40 bộ hướng dẫn cơ bản, cộng với hàng chục hướng dẫn mở rộng mô-đun cơ bản.Bất kỳ doanh nghiệp và nhà phát triển nào cũng có thể sử dụng RISC-V miễn phí để tạo chip có quyền sở hữu trí tuệ độc lập.

Tuy nhiên, mã nguồn mở, khả năng tùy biến cao và các tính năng mô-đun cũng khiến hệ sinh thái RISC-V trở nên phân mảnh và phức tạp hơn.

"Sau khi mỗi công ty nghiên cứu và phát triển chip nâng cấp tập lệnh của RISC-V, nó sẽ thực sự tạo ra một kiến trúc mới. Nó được gọi là RISC-V, nhưng các công ty khác nhau không tương thích với RISC-V và hệ sinh thái nguồn mở thực sự là chia rẽ. .**" Lu Tao, Chủ tịch Weiwei Technology kiêm Tổng Giám đốc Greater China, tin rằng mã nguồn mở của kiến trúc chip và hệ sinh thái phần mềm là rất quan trọng, nhưng các nhóm khác nhau rất khó tìm được sự cân bằng giữa tính mở, tùy chỉnh và phân mảnh.Kiểm tra sự khôn ngoan và khả năng của nhóm R&D.

Ngoài ra, kiến trúc Arm đã sản xuất GPU, IPU và các chip khác phù hợp cho đào tạo và suy luận AI, đồng thời hệ sinh thái kỹ thuật cũng hoàn thiện và trưởng thành hơn. Mục đích ban đầu của RISC-V là thiết kế CPU, mặc dù rất cởi mở nhưng việc thiết kế chip AI vẫn đang trong giai đoạn thăm dò.

Theo công ty nghiên cứu Counterpoint Research, đến năm 2025, tổng số lô hàng bộ xử lý RISC-V sẽ vượt quá 80 tỷ, với tốc độ tăng trưởng kép hàng năm là 114,9%. Đến lúc đó, RISC-V sẽ chiếm 14% thị trường CPU toàn cầu, 28% thị trường IoT, 12% thị trường công nghiệp và 10% thị trường ô tô.

Qualcomm đã triển khai RISC-V trong bộ vi điều khiển trong Snapdragon 865 SoC của họ vào năm 2019 và đã xuất xưởng hơn 650 triệu chip RISC-V cho đến nay. Tại Diễn đàn thượng đỉnh phần cứng AI vào tháng 9 năm 2022, Giáo sư Krste Asanovic, người phát minh ra RISC-V, tiết lộ rằng Google đã bắt đầu sử dụng SiFive Intelligence X280 dựa trên RISC-V để phát triển khung học máy TensorFlow cho chip TPU. **Trước đó, Google đã tiến hành công việc tự nghiên cứu về kiến trúc chip TPU trong hơn 10 năm.

Mặc dù rất khó để phát triển chip RISC-V từ đầu, nhưng bản chất nguồn mở của RISC-V đã mang lại cho chip Trung Quốc, vốn cũng bắt đầu từ đầu, cơ hội sống sót trong sự phong tỏa và độc quyền. các công ty đang phát triển nhanh nhất trên thế giới. Các công ty chip Trung Quốc ngày càng năng nổ hơn và sẵn sàng đối mặt với thách thức". Thị trường chip của Trung Quốc rất lớn, ví dụ, nhu cầu điện toán chip ô tô của Trung Quốc đã vượt xa nhu cầu của thị trường châu Âu và Mỹ. **Với nhu cầu ngày càng tăng của các doanh nghiệp Trung Quốc về sức mạnh điện toán AI, ngành công nghiệp chip AI của Trung Quốc chắc chắn sẽ mở ra nhiều cơ hội hơn trong tương lai.

Phần kết luận

Ngoài những cân nhắc về mặt thương mại, **nguồn mở cũng có thể giúp các nhà xuất bản kỹ thuật tối ưu hóa các mô hình. **

"ChatGPT thực sự là một chiến thắng của kỹ thuật." Thành công của mô hình ngôn ngữ lớn ngày nay thực sự dựa trên việc đào tạo và điều chỉnh mô hình lặp đi lặp lại. Nếu sau khi mô hình cơ bản được thiết lập, mô hình được quảng bá cho cộng đồng mã nguồn mở và nhiều nhà phát triển hơn tham gia vào công việc tối ưu hóa mô hình, thì chắc chắn nó sẽ giúp ích rất nhiều cho sự tiến bộ của mô hình lớn AI.

Ngoài ra, "các mô hình lớn nguồn mở có thể tránh phát minh lại bánh xe." Lin Yonghua, phó chủ tịch kiêm kỹ sư trưởng của Viện nghiên cứu trí tuệ nhân tạo Zhiyuan Bắc Kinh, cho biết trong một cuộc phỏng vấn trong Hội nghị Zhiyuan 2023, giả định rằng mọi người trong ** đều đến từ The nghiên cứu và phát triển các mô hình quy mô lớn có mục đích chung đòi hỏi nhiều sức mạnh tính toán, dữ liệu và điện, đó là một sự phát minh lại hoàn toàn của bánh xe, không có lợi cho việc sử dụng hợp lý các nguồn lực xã hội. **

Đối với một tổ chức phi lợi nhuận như Viện nghiên cứu Zhiyuan, bất kể mô hình là nguồn mở hay nguồn đóng, có thể không có nhiều cân nhắc về mặt thương mại. Nhưng đối với các công ty AI thương mại, cho dù đó là Microsoft, Google, Meta, OpenAI hay Zhipu AI và Baichuan Intelligent trong nước, bất kỳ mô hình AI lớn nào chắc chắn sẽ không chỉ phục vụ mục đích “nghiên cứu khoa học”. **

Mặc dù các sản phẩm của OpenAI có lợi thế tuyệt đối về công nghệ, nhưng hệ sinh thái ChatGPT được xây dựng dưới dạng plug-in lại yếu về mặt xây dựng sinh thái. Trong các tranh chấp về nguồn mở và nguồn đóng của AI, chúng ta có thể thấy một mô hình khác với hệ điều hành di động trong tương lai.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)