Trong vài tháng qua, đã có sự gia tăng đáng kể trong công việc nghiên cứu liên quan đến các tác nhân AI tự trị, đặc biệt là trong bối cảnh Mô hình ngôn ngữ lớn (LLM), thay đổi cách mọi người tương tác với internet hoặc mạng - cho dù đó là gửi email, đàm phán, sản xuất sản phẩm, tìm nguồn cung ứng, thực hiện đơn đặt hàng, thậm chí đặt vé máy bay hoặc thậm chí cách thiết lập LLM trong tương lai gần.
LLM hiện đang dựa vào hướng dẫn của con người và thiếu lý luận tự chủ, trong khi các tác nhân tự trị có thể hoạt động độc lập, đưa ra quyết định thời gian thực và thích ứng với các kịch bản thay đổi. Một ứng dụng thú vị của các tác nhân tự trị là khả năng cải thiện hiệu suất LLM. Họ cộng tác trong các cuộc trò chuyện đa tác nhân, cho phép LLM cải thiện thông qua phản hồi và giao tiếp lý luận.
Microsoft gần đây đã đề xuất AutoGen, một khuôn khổ để xây dựng các ứng dụng LLM sử dụng nhiều tác nhân có khả năng giao tiếp với nhau. Tương tự, Google DeepMind gần đây đã xuất bản một bài báo "Làm thế nào FaR là các mô hình ngôn ngữ lớn từ các tác nhân với lý thuyết tâm trí?" Ngay cả các nhà phê bình Shepherd: Language Model Generation của Meta cũng nói về các tác nhân AI tự trị tự tăng cường và thực hiện các nhiệm vụ của chính họ.
其他论文还包括 SELF: Language-Driven Self-Evolution for Large Language Model 和 SelfEvolve: A Code Evolution Framework via Large Language Models。
OpenAI cũng đang chuẩn bị ra mắt một sản phẩm tương tự tại DevDay vào tháng tới, được gọi là JARVIS.
** Dưới đây là danh sách các tác nhân AI tự trị mới nhất:**
AutoGen
Ví dụ, AutoGen của Microsoft tận dụng LLM để tạo ra các tác nhân linh hoạt có thể học, thích ứng và thậm chí viết mã. Sự hội tụ các khả năng này, cùng với các tính năng như bộ nhớ đệm và sự can thiệp của con người, cho phép các hệ thống AI phát triển và phát triển.
AutoGen đơn giản hóa việc tạo các ứng dụng LLM thế hệ tiếp theo, tự động hóa và tối ưu hóa quy trình làm việc phức tạp. Tác nhân AI này hỗ trợ nhiều chế độ hội thoại và các nhà phát triển có thể tùy chỉnh tương tác của tổng đài viên. Nó cung cấp nhiều hệ thống làm việc cho các ứng dụng khác nhau và có thể thay thế các công cụ của OpenAI để tăng cường API suy luận.
MusicAgent
Các nhà nghiên cứu của Microsoft gần đây đã ra mắt MusicAgent, một tác nhân tự trị cho âm nhạc được cung cấp bởi LLM. Bị cáo buộc, tác nhân AI này có thể giúp các nhà phát triển tự động phân tích các yêu cầu của người dùng và chọn công cụ phù hợp làm giải pháp. Framework mới của họ tích hợp trực tiếp với nhiều công cụ liên quan đến âm nhạc từ nhiều nguồn khác nhau, bao gồm Hugging Face, GitHub, tìm kiếm trên web và hơn thế nữa.
Thêm vào đó, các nhà nghiên cứu đã điều chỉnh quy trình làm việc tự trị để đạt được khả năng tương thích tốt hơn với các tác vụ âm nhạc, cho phép người dùng mở rộng bộ công cụ của họ. Muốn tích hợp nhiều tính năng liên quan đến âm nhạc hơn vào MusicAgent.
MiniAGI
MiniAGI là một tác nhân tự trị đơn giản hoạt động liền mạch với GPT-3.5-Turbo và GPT-4. Nó sử dụng lời nhắc mạnh mẽ cũng như một bộ công cụ tối thiểu, một loạt các suy nghĩ và bộ nhớ ngắn hạn với các bản tóm tắt. Ngoài ra, nó có khả năng độc thoại và tự phê bình.
Đa GPT
Multi-GPT là một hệ thống đa tác nhân thử nghiệm với "expertGPT" để hoàn thành nhiệm vụ hợp tác. Mỗi ExpertGPT sở hữu trí nhớ ngắn hạn và dài hạn riêng biệt và khả năng giao tiếp với người khác. Người dùng có thể giao nhiệm vụ và expertGPT sẽ làm việc cùng nhau để hoàn thành các nhiệm vụ.
Hệ thống cung cấp truy cập Internet để thu thập và tìm kiếm thông tin. Nó quản lý hiệu quả cả bộ nhớ ngắn hạn và dài hạn. Nó sử dụng các phiên bản GPT-4 để tạo văn bản, cung cấp quyền truy cập vào các trang web và nền tảng phổ biến, đồng thời bao gồm lưu trữ tệp và tóm tắt bằng GPT-3.5. Điều này làm cho Multi-GPT trở thành một công cụ linh hoạt cho nhiều tác vụ và nhu cầu quản lý dữ liệu.
BeeBot
BeeBot là một trợ lý AI tự trị được thiết kế để đơn giản hóa và tự động hóa nhiều tác vụ thực tế. Với BeeBot, người dùng có thể trải nghiệm sự tiện lợi của việc lựa chọn các công cụ thông qua AutoPack và có sự linh hoạt để truy cập các công cụ bổ sung khi nhiệm vụ phát triển. Ngoài ra, sự kiên trì tích hợp đảm bảo rằng BeeBot có thể ghi nhớ và nhớ lại thông tin, làm cho nó trở thành một trợ lý đáng tin cậy hơn.
Nhờ API REST của nó, tuân theo một tiêu chuẩn chung được gọi là e2b, nó có thể dễ dàng làm việc với các hệ thống và dịch vụ khác nhau. BeeBot cũng thông báo cho bạn bằng cách sử dụng máy chủ websocket để chia sẻ thông tin cập nhật trong thời gian thực. Nó hoạt động theo nhiều cách khác nhau để lưu trữ tệp, chẳng hạn như trong bộ nhớ, trên máy tính hoặc trong cơ sở dữ liệu.
Bé AGI
Baby AGI là một tập lệnh Python giúp đơn giản hóa việc quản lý tác vụ bằng cách sử dụng API OpenAI và Pinecone và khung công tác LangChain. Hệ thống do AI điều khiển này vượt trội trong việc tạo, tổ chức, ưu tiên và thực hiện các nhiệm vụ dựa trên các mục tiêu được xác định trước, tất cả đều học được từ các nhiệm vụ trong quá khứ.
Baby AGI tận dụng khả năng xử lý ngôn ngữ tự nhiên (NLP) của OpenAI để xây dựng các nhiệm vụ mới phù hợp với các mục tiêu đã thiết lập. Pinecone hoạt động như một kho lưu trữ để lưu trữ kết quả tác vụ và truy xuất ngữ cảnh, trong khi khung LangChain xử lý các quyết định.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
6 tác nhân AI tự trị cần biết về nó
Nguồn bài viết: AI Ape
Trong vài tháng qua, đã có sự gia tăng đáng kể trong công việc nghiên cứu liên quan đến các tác nhân AI tự trị, đặc biệt là trong bối cảnh Mô hình ngôn ngữ lớn (LLM), thay đổi cách mọi người tương tác với internet hoặc mạng - cho dù đó là gửi email, đàm phán, sản xuất sản phẩm, tìm nguồn cung ứng, thực hiện đơn đặt hàng, thậm chí đặt vé máy bay hoặc thậm chí cách thiết lập LLM trong tương lai gần.
LLM hiện đang dựa vào hướng dẫn của con người và thiếu lý luận tự chủ, trong khi các tác nhân tự trị có thể hoạt động độc lập, đưa ra quyết định thời gian thực và thích ứng với các kịch bản thay đổi. Một ứng dụng thú vị của các tác nhân tự trị là khả năng cải thiện hiệu suất LLM. Họ cộng tác trong các cuộc trò chuyện đa tác nhân, cho phép LLM cải thiện thông qua phản hồi và giao tiếp lý luận.
Microsoft gần đây đã đề xuất AutoGen, một khuôn khổ để xây dựng các ứng dụng LLM sử dụng nhiều tác nhân có khả năng giao tiếp với nhau. Tương tự, Google DeepMind gần đây đã xuất bản một bài báo "Làm thế nào FaR là các mô hình ngôn ngữ lớn từ các tác nhân với lý thuyết tâm trí?" Ngay cả các nhà phê bình Shepherd: Language Model Generation của Meta cũng nói về các tác nhân AI tự trị tự tăng cường và thực hiện các nhiệm vụ của chính họ.
其他论文还包括 SELF: Language-Driven Self-Evolution for Large Language Model 和 SelfEvolve: A Code Evolution Framework via Large Language Models。
OpenAI cũng đang chuẩn bị ra mắt một sản phẩm tương tự tại DevDay vào tháng tới, được gọi là JARVIS.
** Dưới đây là danh sách các tác nhân AI tự trị mới nhất:**
AutoGen
Ví dụ, AutoGen của Microsoft tận dụng LLM để tạo ra các tác nhân linh hoạt có thể học, thích ứng và thậm chí viết mã. Sự hội tụ các khả năng này, cùng với các tính năng như bộ nhớ đệm và sự can thiệp của con người, cho phép các hệ thống AI phát triển và phát triển.
AutoGen đơn giản hóa việc tạo các ứng dụng LLM thế hệ tiếp theo, tự động hóa và tối ưu hóa quy trình làm việc phức tạp. Tác nhân AI này hỗ trợ nhiều chế độ hội thoại và các nhà phát triển có thể tùy chỉnh tương tác của tổng đài viên. Nó cung cấp nhiều hệ thống làm việc cho các ứng dụng khác nhau và có thể thay thế các công cụ của OpenAI để tăng cường API suy luận.
MusicAgent
Các nhà nghiên cứu của Microsoft gần đây đã ra mắt MusicAgent, một tác nhân tự trị cho âm nhạc được cung cấp bởi LLM. Bị cáo buộc, tác nhân AI này có thể giúp các nhà phát triển tự động phân tích các yêu cầu của người dùng và chọn công cụ phù hợp làm giải pháp. Framework mới của họ tích hợp trực tiếp với nhiều công cụ liên quan đến âm nhạc từ nhiều nguồn khác nhau, bao gồm Hugging Face, GitHub, tìm kiếm trên web và hơn thế nữa.
Thêm vào đó, các nhà nghiên cứu đã điều chỉnh quy trình làm việc tự trị để đạt được khả năng tương thích tốt hơn với các tác vụ âm nhạc, cho phép người dùng mở rộng bộ công cụ của họ. Muốn tích hợp nhiều tính năng liên quan đến âm nhạc hơn vào MusicAgent.
MiniAGI
MiniAGI là một tác nhân tự trị đơn giản hoạt động liền mạch với GPT-3.5-Turbo và GPT-4. Nó sử dụng lời nhắc mạnh mẽ cũng như một bộ công cụ tối thiểu, một loạt các suy nghĩ và bộ nhớ ngắn hạn với các bản tóm tắt. Ngoài ra, nó có khả năng độc thoại và tự phê bình.
Đa GPT
Multi-GPT là một hệ thống đa tác nhân thử nghiệm với "expertGPT" để hoàn thành nhiệm vụ hợp tác. Mỗi ExpertGPT sở hữu trí nhớ ngắn hạn và dài hạn riêng biệt và khả năng giao tiếp với người khác. Người dùng có thể giao nhiệm vụ và expertGPT sẽ làm việc cùng nhau để hoàn thành các nhiệm vụ.
Hệ thống cung cấp truy cập Internet để thu thập và tìm kiếm thông tin. Nó quản lý hiệu quả cả bộ nhớ ngắn hạn và dài hạn. Nó sử dụng các phiên bản GPT-4 để tạo văn bản, cung cấp quyền truy cập vào các trang web và nền tảng phổ biến, đồng thời bao gồm lưu trữ tệp và tóm tắt bằng GPT-3.5. Điều này làm cho Multi-GPT trở thành một công cụ linh hoạt cho nhiều tác vụ và nhu cầu quản lý dữ liệu.
BeeBot
BeeBot là một trợ lý AI tự trị được thiết kế để đơn giản hóa và tự động hóa nhiều tác vụ thực tế. Với BeeBot, người dùng có thể trải nghiệm sự tiện lợi của việc lựa chọn các công cụ thông qua AutoPack và có sự linh hoạt để truy cập các công cụ bổ sung khi nhiệm vụ phát triển. Ngoài ra, sự kiên trì tích hợp đảm bảo rằng BeeBot có thể ghi nhớ và nhớ lại thông tin, làm cho nó trở thành một trợ lý đáng tin cậy hơn.
Nhờ API REST của nó, tuân theo một tiêu chuẩn chung được gọi là e2b, nó có thể dễ dàng làm việc với các hệ thống và dịch vụ khác nhau. BeeBot cũng thông báo cho bạn bằng cách sử dụng máy chủ websocket để chia sẻ thông tin cập nhật trong thời gian thực. Nó hoạt động theo nhiều cách khác nhau để lưu trữ tệp, chẳng hạn như trong bộ nhớ, trên máy tính hoặc trong cơ sở dữ liệu.
Bé AGI
Baby AGI là một tập lệnh Python giúp đơn giản hóa việc quản lý tác vụ bằng cách sử dụng API OpenAI và Pinecone và khung công tác LangChain. Hệ thống do AI điều khiển này vượt trội trong việc tạo, tổ chức, ưu tiên và thực hiện các nhiệm vụ dựa trên các mục tiêu được xác định trước, tất cả đều học được từ các nhiệm vụ trong quá khứ.
Baby AGI tận dụng khả năng xử lý ngôn ngữ tự nhiên (NLP) của OpenAI để xây dựng các nhiệm vụ mới phù hợp với các mục tiêu đã thiết lập. Pinecone hoạt động như một kho lưu trữ để lưu trữ kết quả tác vụ và truy xuất ngữ cảnh, trong khi khung LangChain xử lý các quyết định.