Khi mô hình ngôn ngữ lớn (LLM) ngày càng trở nên thịnh vượng, chúng tôi thấy rằng nhiều dự án đang tích hợp trí tuệ nhân tạo (AI) và chuỗi khối. Sự kết hợp giữa LLM và chuỗi khối đang gia tăng và chúng tôi cũng nhận thấy cơ hội để trí tuệ nhân tạo tái hòa nhập với chuỗi khối. Một điều đáng nói là máy học không kiến thức (ZKML).
Trí tuệ nhân tạo và chuỗi khối là hai công nghệ biến đổi với các đặc điểm cơ bản khác nhau. Trí tuệ nhân tạo đòi hỏi sức mạnh tính toán mạnh mẽ, thường được cung cấp bởi các trung tâm dữ liệu tập trung. Mặc dù chuỗi khối cung cấp khả năng tính toán phi tập trung và bảo vệ quyền riêng tư, nhưng nó không hoạt động tốt trong các tác vụ lưu trữ và tính toán quy mô lớn. Chúng tôi vẫn đang khám phá và nghiên cứu các phương pháp hay nhất về tích hợp trí tuệ nhân tạo và chuỗi khối, đồng thời chúng tôi sẽ giới thiệu một số trường hợp dự án hiện tại kết hợp "AI + chuỗi khối" trong tương lai.
Nguồn: IOSG mạo hiểm
Báo cáo nghiên cứu này được chia thành hai phần. Bài viết này là phần trên, chúng tôi sẽ tập trung vào ứng dụng của LLM trong lĩnh vực mã hóa và thảo luận về chiến lược hạ cánh ứng dụng.
LLM là gì?
LLM (Large Language Model) là một mô hình ngôn ngữ được vi tính hóa bao gồm một mạng thần kinh nhân tạo với một số lượng lớn các tham số (thường là hàng tỷ). Các mô hình này được đào tạo trên một lượng lớn văn bản chưa được gắn nhãn.
Khoảng năm 2018, LLM ra đời đã tạo ra một cuộc cách mạng trong nghiên cứu xử lý ngôn ngữ tự nhiên. Không giống như các phương pháp trước đây yêu cầu đào tạo một mô hình được giám sát cụ thể cho một nhiệm vụ cụ thể, LLM, với tư cách là một mô hình chung, thực hiện tốt nhiều nhiệm vụ khác nhau. Khả năng và ứng dụng của nó bao gồm:
Hiểu và tóm tắt văn bản: LLM có thể hiểu và tóm tắt một lượng lớn dữ liệu ngôn ngữ và văn bản của con người. Họ có thể trích xuất thông tin chính và tạo bản tóm tắt ngắn gọn.
Tạo nội dung mới: LLM có khả năng tạo nội dung dựa trên văn bản. Bằng cách đưa nó vào mô hình, nó có thể trả lời các câu hỏi, văn bản mới được tạo, tóm tắt hoặc phân tích tình cảm.
Dịch: LLM có thể được sử dụng để dịch giữa các ngôn ngữ khác nhau. Họ sử dụng các thuật toán học sâu và mạng lưới thần kinh để hiểu ngữ cảnh và mối quan hệ giữa các từ.
Dự đoán và tạo văn bản: LLM có thể dự đoán và tạo văn bản dựa trên ngữ cảnh, tương tự như nội dung do con người tạo ra, bao gồm các bài hát, bài thơ, câu chuyện, tài liệu tiếp thị, v.v.
Ứng dụng trong các lĩnh vực: các mô hình ngôn ngữ lớn có khả năng ứng dụng rộng rãi trong các tác vụ xử lý ngôn ngữ tự nhiên. Chúng được sử dụng trong trí tuệ nhân tạo đàm thoại, chatbot, chăm sóc sức khỏe, phát triển phần mềm, công cụ tìm kiếm, dạy kèm, công cụ viết, v.v.
Điểm mạnh của LLM bao gồm khả năng hiểu lượng lớn dữ liệu, khả năng thực hiện nhiều nhiệm vụ liên quan đến ngôn ngữ và khả năng điều chỉnh kết quả theo nhu cầu của người dùng.
Các ứng dụng mô hình ngôn ngữ quy mô lớn phổ biến
Do khả năng hiểu ngôn ngữ tự nhiên vượt trội, LLM có tiềm năng đáng kể và các nhà phát triển chủ yếu tập trung vào hai khía cạnh sau:
Cung cấp cho người dùng câu trả lời chính xác và cập nhật dựa trên một lượng lớn dữ liệu và nội dung theo ngữ cảnh
Hoàn thành các nhiệm vụ cụ thể do người dùng giao bằng cách sử dụng các tác nhân và công cụ khác nhau
Chính hai khía cạnh này đã khiến ứng dụng LLM chat với XX bùng nổ như nấm sau mưa. Ví dụ: trò chuyện với các tệp PDF, trò chuyện với tài liệu và trò chuyện với các bài báo học thuật.
Sau đó, các nỗ lực đã được thực hiện để hợp nhất LLM với nhiều nguồn dữ liệu khác nhau. Các nhà phát triển đã tích hợp thành công các nền tảng như Github, Notion và một số phần mềm ghi chú với LLM.
Để khắc phục những hạn chế vốn có của LLM, các công cụ khác nhau đã được tích hợp vào hệ thống. Công cụ đầu tiên như vậy là một công cụ tìm kiếm, cung cấp cho các LLM quyền truy cập vào kiến thức cập nhật. Tiến bộ hơn nữa sẽ tích hợp các công cụ như WolframAlpha, Google Suites và Etherscan với các mô hình ngôn ngữ lớn.
Kiến trúc của Ứng dụng LLM
Sơ đồ bên dưới phác thảo quy trình của ứng dụng LLM khi trả lời các truy vấn của người dùng: Đầu tiên, các nguồn dữ liệu liên quan được chuyển đổi thành các vectơ nhúng và được lưu trữ trong cơ sở dữ liệu vectơ. Bộ điều hợp LLM sử dụng các truy vấn của người dùng và tìm kiếm tương tự để tìm ngữ cảnh có liên quan từ cơ sở dữ liệu vectơ. Bối cảnh liên quan được đưa vào và gửi đến LLM. LLM sẽ thực hiện những điều này và sử dụng các công cụ để tạo câu trả lời. Đôi khi các LLM được điều chỉnh trên các bộ dữ liệu cụ thể để cải thiện độ chính xác và giảm chi phí.
Quy trình làm việc của ứng dụng LLM có thể được chia thành ba giai đoạn chính:
Chuẩn bị và nhúng dữ liệu: Giai đoạn này liên quan đến việc giữ thông tin bí mật, chẳng hạn như bản ghi nhớ dự án, để truy cập trong tương lai. Thông thường, các tệp được phân đoạn và xử lý thông qua các mô hình nhúng, được lưu giữ trong một loại cơ sở dữ liệu đặc biệt gọi là cơ sở dữ liệu vectơ.
Công thức và trích xuất: Khi người dùng gửi yêu cầu tìm kiếm (trong trường hợp này là để tìm kiếm thông tin mặt hàng), phần mềm sẽ tạo một chuỗi, được đưa vào mô hình ngôn ngữ. Mẫu cuối cùng thường chứa một mẫu lời nhắc được nhà phát triển phần mềm mã hóa cứng, một ví dụ về đầu ra hợp lệ dưới dạng một vài ví dụ và mọi dữ liệu bắt buộc thu được từ API bên ngoài và các tệp liên quan được trích xuất từ cơ sở dữ liệu vectơ.
Thực thi và suy luận: Sau khi hoàn tất, hãy cung cấp chúng cho các mô hình ngôn ngữ có sẵn để suy luận, có thể bao gồm các API mô hình độc quyền, mã nguồn mở hoặc các mô hình được tinh chỉnh riêng lẻ. Ở giai đoạn này, một số nhà phát triển cũng có thể kết hợp các hệ điều hành như ghi nhật ký, bộ nhớ đệm và xác thực vào hệ thống.
Đưa LLM vào không gian tiền điện tử
Mặc dù có một số ứng dụng tương tự trong lĩnh vực mã hóa (Web3) và Web2, việc phát triển các ứng dụng LLM tốt trong lĩnh vực mã hóa đòi hỏi sự chăm sóc đặc biệt.
Hệ sinh thái tiền điện tử là duy nhất, với văn hóa, dữ liệu và sự hội tụ của riêng nó. Các LLM được tinh chỉnh trên các bộ dữ liệu hạn chế bằng mật mã này có thể mang lại kết quả vượt trội với chi phí tương đối thấp. Mặc dù có rất nhiều dữ liệu nhưng lại thiếu các bộ dữ liệu mở trên các nền tảng như HuggingFace. Hiện tại, chỉ có một bộ dữ liệu liên quan đến hợp đồng thông minh, chứa 113.000 hợp đồng thông minh.
Các nhà phát triển cũng phải đối mặt với thách thức tích hợp các công cụ khác nhau vào LLM. Các công cụ này khác với các công cụ được sử dụng trong Web2 bằng cách cung cấp cho các LLM khả năng truy cập dữ liệu liên quan đến giao dịch, tương tác với các ứng dụng phi tập trung (Dapps) và thực hiện các giao dịch. Cho đến nay, chúng tôi chưa tìm thấy bất kỳ tích hợp Dapp nào trong Langchain.
Mặc dù đầu tư bổ sung có thể được yêu cầu để phát triển các ứng dụng LLM mật mã chất lượng cao, LLM là sự phù hợp tự nhiên cho không gian mật mã. Miền này cung cấp dữ liệu phong phú, rõ ràng và có cấu trúc. Điều này, kết hợp với thực tế là mã Solidity thường ngắn gọn, giúp LLM tạo mã chức năng dễ dàng hơn.
Trong Phần 2, chúng ta sẽ thảo luận về 8 hướng tiềm năng mà LLM có thể giúp ích cho không gian chuỗi khối, chẳng hạn như:
Tích hợp các khả năng AI/LLM tích hợp vào chuỗi khối
Phân tích hồ sơ giao dịch bằng LLM
Xác định các bot tiềm năng bằng LLM
Viết mã bằng LLM
Đọc mã với LLM
Sử dụng LLM để giúp đỡ cộng đồng
Sử dụng LLM để theo dõi thị trường
Phân tích dự án sử dụng LLM
Giữ nguyên!
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
IOSG Ventures: LLM trao quyền cho blockchain để mở ra một kỷ nguyên mới về trải nghiệm trên chuỗi
Viết bởi: Yiping, IOSG mạo hiểm
viết phía trước
Nguồn: IOSG mạo hiểm
Báo cáo nghiên cứu này được chia thành hai phần. Bài viết này là phần trên, chúng tôi sẽ tập trung vào ứng dụng của LLM trong lĩnh vực mã hóa và thảo luận về chiến lược hạ cánh ứng dụng.
LLM là gì?
LLM (Large Language Model) là một mô hình ngôn ngữ được vi tính hóa bao gồm một mạng thần kinh nhân tạo với một số lượng lớn các tham số (thường là hàng tỷ). Các mô hình này được đào tạo trên một lượng lớn văn bản chưa được gắn nhãn.
Khoảng năm 2018, LLM ra đời đã tạo ra một cuộc cách mạng trong nghiên cứu xử lý ngôn ngữ tự nhiên. Không giống như các phương pháp trước đây yêu cầu đào tạo một mô hình được giám sát cụ thể cho một nhiệm vụ cụ thể, LLM, với tư cách là một mô hình chung, thực hiện tốt nhiều nhiệm vụ khác nhau. Khả năng và ứng dụng của nó bao gồm:
Điểm mạnh của LLM bao gồm khả năng hiểu lượng lớn dữ liệu, khả năng thực hiện nhiều nhiệm vụ liên quan đến ngôn ngữ và khả năng điều chỉnh kết quả theo nhu cầu của người dùng.
Các ứng dụng mô hình ngôn ngữ quy mô lớn phổ biến
Do khả năng hiểu ngôn ngữ tự nhiên vượt trội, LLM có tiềm năng đáng kể và các nhà phát triển chủ yếu tập trung vào hai khía cạnh sau:
Chính hai khía cạnh này đã khiến ứng dụng LLM chat với XX bùng nổ như nấm sau mưa. Ví dụ: trò chuyện với các tệp PDF, trò chuyện với tài liệu và trò chuyện với các bài báo học thuật.
Sau đó, các nỗ lực đã được thực hiện để hợp nhất LLM với nhiều nguồn dữ liệu khác nhau. Các nhà phát triển đã tích hợp thành công các nền tảng như Github, Notion và một số phần mềm ghi chú với LLM.
Để khắc phục những hạn chế vốn có của LLM, các công cụ khác nhau đã được tích hợp vào hệ thống. Công cụ đầu tiên như vậy là một công cụ tìm kiếm, cung cấp cho các LLM quyền truy cập vào kiến thức cập nhật. Tiến bộ hơn nữa sẽ tích hợp các công cụ như WolframAlpha, Google Suites và Etherscan với các mô hình ngôn ngữ lớn.
Kiến trúc của Ứng dụng LLM
Sơ đồ bên dưới phác thảo quy trình của ứng dụng LLM khi trả lời các truy vấn của người dùng: Đầu tiên, các nguồn dữ liệu liên quan được chuyển đổi thành các vectơ nhúng và được lưu trữ trong cơ sở dữ liệu vectơ. Bộ điều hợp LLM sử dụng các truy vấn của người dùng và tìm kiếm tương tự để tìm ngữ cảnh có liên quan từ cơ sở dữ liệu vectơ. Bối cảnh liên quan được đưa vào và gửi đến LLM. LLM sẽ thực hiện những điều này và sử dụng các công cụ để tạo câu trả lời. Đôi khi các LLM được điều chỉnh trên các bộ dữ liệu cụ thể để cải thiện độ chính xác và giảm chi phí.
Quy trình làm việc của ứng dụng LLM có thể được chia thành ba giai đoạn chính:
Đưa LLM vào không gian tiền điện tử
Mặc dù có một số ứng dụng tương tự trong lĩnh vực mã hóa (Web3) và Web2, việc phát triển các ứng dụng LLM tốt trong lĩnh vực mã hóa đòi hỏi sự chăm sóc đặc biệt.
Hệ sinh thái tiền điện tử là duy nhất, với văn hóa, dữ liệu và sự hội tụ của riêng nó. Các LLM được tinh chỉnh trên các bộ dữ liệu hạn chế bằng mật mã này có thể mang lại kết quả vượt trội với chi phí tương đối thấp. Mặc dù có rất nhiều dữ liệu nhưng lại thiếu các bộ dữ liệu mở trên các nền tảng như HuggingFace. Hiện tại, chỉ có một bộ dữ liệu liên quan đến hợp đồng thông minh, chứa 113.000 hợp đồng thông minh.
Các nhà phát triển cũng phải đối mặt với thách thức tích hợp các công cụ khác nhau vào LLM. Các công cụ này khác với các công cụ được sử dụng trong Web2 bằng cách cung cấp cho các LLM khả năng truy cập dữ liệu liên quan đến giao dịch, tương tác với các ứng dụng phi tập trung (Dapps) và thực hiện các giao dịch. Cho đến nay, chúng tôi chưa tìm thấy bất kỳ tích hợp Dapp nào trong Langchain.
Mặc dù đầu tư bổ sung có thể được yêu cầu để phát triển các ứng dụng LLM mật mã chất lượng cao, LLM là sự phù hợp tự nhiên cho không gian mật mã. Miền này cung cấp dữ liệu phong phú, rõ ràng và có cấu trúc. Điều này, kết hợp với thực tế là mã Solidity thường ngắn gọn, giúp LLM tạo mã chức năng dễ dàng hơn.
Trong Phần 2, chúng ta sẽ thảo luận về 8 hướng tiềm năng mà LLM có thể giúp ích cho không gian chuỗi khối, chẳng hạn như:
Giữ nguyên!