Sự ra đời của ChatGPT đã giúp nhiều người tiếp cận được với trí tuệ nhân tạo (AI) mạnh mẽ hơn, nhưng hoạt động bên trong của chatbot vẫn là một bí mật chưa được tiết lộ.
Do đó, nỗ lực làm cho AI trở nên "cởi mở" hơn dường như đã thu hút được nhiều sự chú ý hơn trong những tháng gần đây. **
Vào tháng 5 năm nay, ai đó đã rò rỉ mô hình "Llama" của Meta, cho phép thế giới bên ngoài truy cập vào mã cơ bản của nó và trọng số mô hình xác định hành vi của nó. Vào tháng 7, Meta đã tung ra một mô hình mạnh mẽ hơn, Llama 2, mà hãng tuyên bố là miễn phí cho mọi người tải xuống, sửa đổi và sử dụng lại. Kể từ đó, Loạt mô hình Llama của Meta đã trở thành nền tảng để nhiều công ty, nhà nghiên cứu và những người nghiệp dư về AI xây dựng các công cụ và ứng dụng có khả năng giống ChatGPT.
"Chúng tôi có nhiều khu vực bầu cử trên khắp thế giới tin tưởng vào cách tiếp cận cởi mở của chúng tôi với AI ngày nay...Các nhà nghiên cứu cam kết thực hiện nghiên cứu bằng cách sử dụng mô hình và những người trong lĩnh vực công nghệ, học viện và chính sách cũng đang làm việc với Chúng tôi, hãy xem lợi ích của Llama và nền tảng mở", Meta cho biết tại buổi ra mắt Llama 2. Cách đây vài ngày, Meta cũng đã phát hành một mô hình khác - Llama 2 Code, được tinh chỉnh để mã hóa.
**Sau nhiều thập kỷ dân chủ hóa quyền truy cập vào phần mềm, đảm bảo tính minh bạch và cải thiện bảo mật, cách tiếp cận nguồn mở giờ đây dường như được kỳ vọng sẽ có tác động tương tự đối với trí tuệ nhân tạo. **
** Nhưng điều này có thể là chưa đủ. **
Một nhóm nghiên cứu từ Đại học Carnegie Mellon, Viện AI Now và Signal Foundation đã xuất bản một bài báo có tiêu đề "Mở (Dành cho doanh nghiệp): Công nghệ lớn, quyền lực tập trung và nền kinh tế chính trị của AI mở" khám phá thực tế của "Llama 2" và các mô hình trí tuệ nhân tạo khác có "nguồn mở" theo một cách nào đó. Họ nói rằng có thể có một số "vấn đề" trong mô hình dưới biểu ngữ "nguồn mở".
Theo bài báo, **Mặc dù Llama 2 được tải xuống, sửa đổi và triển khai miễn phí nhưng nó không được cấp phép bởi các giấy phép nguồn mở truyền thống. ** Giấy phép của Meta cấm sử dụng Llama 2 để đào tạo các mô hình ngôn ngữ khác và cần có giấy phép đặc biệt nếu nhà phát triển triển khai Llama 2 vào một ứng dụng hoặc dịch vụ có hơn 700 triệu người dùng hàng ngày.
**Mức độ kiểm soát này có nghĩa là Llama 2 có thể mang lại lợi ích chiến lược và kỹ thuật đáng kể cho Meta - ví dụ: Meta có thể hưởng lợi từ những điều chỉnh có lợi khi các công ty bên ngoài sử dụng mô hình Llama 2 trong các ứng dụng của riêng họ. **
Các nhà nghiên cứu cho biết các mô hình được phát hành theo các giấy phép nguồn mở phổ biến, chẳng hạn như GPT Neo của tổ chức phi lợi nhuận EleutherAI, sẽ cởi mở hơn. Nhưng những dự án này gặp khó khăn trong việc cạnh tranh với các mô hình do các công ty lớn hơn đưa ra.
Thứ nhất, dữ liệu cần thiết để đào tạo các mô hình nâng cao thường được bảo mật; Thứ hai, các framework phần mềm cần thiết để xây dựng các mô hình như vậy thường được kiểm soát bởi các công ty lớn và hai framework phần mềm phổ biến nhất lần lượt là TensorFlow và Pytorch Được duy trì bởi Google và Meta; Hơn nữa, sức mạnh máy tính cần thiết để đào tạo các mô hình trí tuệ nhân tạo quy mô lớn nằm ngoài tầm với của các nhà phát triển hoặc công ty thông thường, thường cần hàng chục triệu hoặc hàng trăm triệu đô la cho một buổi đào tạo ; *Cuối cùng * , nhân lực cần thiết để tinh chỉnh và cải tiến các mô hình này cũng phần lớn là nguồn lực mà chỉ các công ty lớn mới có được.
Do đó, nhóm nghiên cứu tin rằng đánh giá theo xu hướng hiện tại, một trong những công nghệ quan trọng nhất trong nhiều thập kỷ này có thể chỉ làm phong phú và nâng cao năng lực của một số công ty, bao gồm OpenAI, Microsoft, Meta và Google. Nếu trí tuệ nhân tạo thực sự là công nghệ có thể thay đổi thế giới và nếu nó được ứng dụng, phổ biến rộng rãi hơn thì có thể mang lại lợi ích lớn nhất cho toàn thế giới.
Meredith Whittaker, một trong những tác giả của bài báo, nói với Wired: “Phân tích của chúng tôi cho thấy rằng (mức độ) nguồn mở này không những sẽ không 'dân chủ hóa' AI," Meredith Whittaker, một trong những tác giả của bài báo, nói với Wired, "Thật vậy, các công ty và tổ chức có thể. Và nó đã tận dụng các công nghệ "nguồn mở" củng cố và mở rộng sự tập trung quyền lực”.
Hơn nữa,** ngay cả những hệ thống AI “mở” cởi mở nhất cũng sẽ không tự mình đảm bảo khả năng tiếp cận dân chủ hoặc cạnh tranh có ý nghĩa trong lĩnh vực AI, cũng như bản thân sự cởi mở cũng sẽ không giải quyết được các vấn đề về giám sát và kiểm duyệt. **
Whittaker nói thêm rằng nguồn mở phải là một sự cân nhắc quan trọng trong các quy định AI rất cần thiết, "Chúng tôi thực sự cần các giải pháp thay thế có ý nghĩa cho các công nghệ được xác định và thống trị bởi các công ty độc quyền lớn—đặc biệt là khi các hệ thống AI được tích hợp vào các lĩnh vực rất nhạy cảm có tác động công cụ thể như chăm sóc sức khỏe. , tài chính, giáo dục, v.v. Tạo điều kiện để thực hiện sự thay thế này là một dự án có thể cùng tồn tại hoặc thậm chí được hỗ trợ bởi các phong trào quản lý như cải cách chống độc quyền.”
Nhóm nghiên cứu cũng cho biết, ngoài việc cân bằng quyền lực của các công ty lớn, việc làm cho AI cởi mở hơn có thể rất quan trọng để khai thác tiềm năng tốt nhất của công nghệ – đồng thời tránh những xu hướng tồi tệ nhất của nó. **
** Nếu chúng ta muốn hiểu khả năng của các mô hình AI tiên tiến nhất cũng như giảm thiểu những rủi ro mà việc triển khai và phát triển hơn nữa có thể gây ra, thì tốt nhất là cung cấp những mô hình này cho các nhà khoa học trên khắp thế giới. **
Cũng giống như "bảo mật thông qua sự tối nghĩa" không bao giờ có thể thực sự đảm bảo rằng mã chạy an toàn, việc bảo vệ cách thức hoạt động của các mô hình AI mạnh mẽ không nhất thiết là điều thông minh nhất nên làm.
Liên kết tham khảo:
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Có thể có một số cạm bẫy trong mô hình AI dưới khẩu hiệu “nguồn mở”?
Sự ra đời của ChatGPT đã giúp nhiều người tiếp cận được với trí tuệ nhân tạo (AI) mạnh mẽ hơn, nhưng hoạt động bên trong của chatbot vẫn là một bí mật chưa được tiết lộ.
Do đó, nỗ lực làm cho AI trở nên "cởi mở" hơn dường như đã thu hút được nhiều sự chú ý hơn trong những tháng gần đây. **
Vào tháng 5 năm nay, ai đó đã rò rỉ mô hình "Llama" của Meta, cho phép thế giới bên ngoài truy cập vào mã cơ bản của nó và trọng số mô hình xác định hành vi của nó. Vào tháng 7, Meta đã tung ra một mô hình mạnh mẽ hơn, Llama 2, mà hãng tuyên bố là miễn phí cho mọi người tải xuống, sửa đổi và sử dụng lại. Kể từ đó, Loạt mô hình Llama của Meta đã trở thành nền tảng để nhiều công ty, nhà nghiên cứu và những người nghiệp dư về AI xây dựng các công cụ và ứng dụng có khả năng giống ChatGPT.
**Sau nhiều thập kỷ dân chủ hóa quyền truy cập vào phần mềm, đảm bảo tính minh bạch và cải thiện bảo mật, cách tiếp cận nguồn mở giờ đây dường như được kỳ vọng sẽ có tác động tương tự đối với trí tuệ nhân tạo. **
** Nhưng điều này có thể là chưa đủ. **
Một nhóm nghiên cứu từ Đại học Carnegie Mellon, Viện AI Now và Signal Foundation đã xuất bản một bài báo có tiêu đề "Mở (Dành cho doanh nghiệp): Công nghệ lớn, quyền lực tập trung và nền kinh tế chính trị của AI mở" khám phá thực tế của "Llama 2" và các mô hình trí tuệ nhân tạo khác có "nguồn mở" theo một cách nào đó. Họ nói rằng có thể có một số "vấn đề" trong mô hình dưới biểu ngữ "nguồn mở".
**Mức độ kiểm soát này có nghĩa là Llama 2 có thể mang lại lợi ích chiến lược và kỹ thuật đáng kể cho Meta - ví dụ: Meta có thể hưởng lợi từ những điều chỉnh có lợi khi các công ty bên ngoài sử dụng mô hình Llama 2 trong các ứng dụng của riêng họ. **
Các nhà nghiên cứu cho biết các mô hình được phát hành theo các giấy phép nguồn mở phổ biến, chẳng hạn như GPT Neo của tổ chức phi lợi nhuận EleutherAI, sẽ cởi mở hơn. Nhưng những dự án này gặp khó khăn trong việc cạnh tranh với các mô hình do các công ty lớn hơn đưa ra.
Thứ nhất, dữ liệu cần thiết để đào tạo các mô hình nâng cao thường được bảo mật; Thứ hai, các framework phần mềm cần thiết để xây dựng các mô hình như vậy thường được kiểm soát bởi các công ty lớn và hai framework phần mềm phổ biến nhất lần lượt là TensorFlow và Pytorch Được duy trì bởi Google và Meta; Hơn nữa, sức mạnh máy tính cần thiết để đào tạo các mô hình trí tuệ nhân tạo quy mô lớn nằm ngoài tầm với của các nhà phát triển hoặc công ty thông thường, thường cần hàng chục triệu hoặc hàng trăm triệu đô la cho một buổi đào tạo ; *Cuối cùng * , nhân lực cần thiết để tinh chỉnh và cải tiến các mô hình này cũng phần lớn là nguồn lực mà chỉ các công ty lớn mới có được.
Do đó, nhóm nghiên cứu tin rằng đánh giá theo xu hướng hiện tại, một trong những công nghệ quan trọng nhất trong nhiều thập kỷ này có thể chỉ làm phong phú và nâng cao năng lực của một số công ty, bao gồm OpenAI, Microsoft, Meta và Google. Nếu trí tuệ nhân tạo thực sự là công nghệ có thể thay đổi thế giới và nếu nó được ứng dụng, phổ biến rộng rãi hơn thì có thể mang lại lợi ích lớn nhất cho toàn thế giới.
Meredith Whittaker, một trong những tác giả của bài báo, nói với Wired: “Phân tích của chúng tôi cho thấy rằng (mức độ) nguồn mở này không những sẽ không 'dân chủ hóa' AI," Meredith Whittaker, một trong những tác giả của bài báo, nói với Wired, "Thật vậy, các công ty và tổ chức có thể. Và nó đã tận dụng các công nghệ "nguồn mở" củng cố và mở rộng sự tập trung quyền lực”.
Hơn nữa,** ngay cả những hệ thống AI “mở” cởi mở nhất cũng sẽ không tự mình đảm bảo khả năng tiếp cận dân chủ hoặc cạnh tranh có ý nghĩa trong lĩnh vực AI, cũng như bản thân sự cởi mở cũng sẽ không giải quyết được các vấn đề về giám sát và kiểm duyệt. **
Whittaker nói thêm rằng nguồn mở phải là một sự cân nhắc quan trọng trong các quy định AI rất cần thiết, "Chúng tôi thực sự cần các giải pháp thay thế có ý nghĩa cho các công nghệ được xác định và thống trị bởi các công ty độc quyền lớn—đặc biệt là khi các hệ thống AI được tích hợp vào các lĩnh vực rất nhạy cảm có tác động công cụ thể như chăm sóc sức khỏe. , tài chính, giáo dục, v.v. Tạo điều kiện để thực hiện sự thay thế này là một dự án có thể cùng tồn tại hoặc thậm chí được hỗ trợ bởi các phong trào quản lý như cải cách chống độc quyền.”
Nhóm nghiên cứu cũng cho biết, ngoài việc cân bằng quyền lực của các công ty lớn, việc làm cho AI cởi mở hơn có thể rất quan trọng để khai thác tiềm năng tốt nhất của công nghệ – đồng thời tránh những xu hướng tồi tệ nhất của nó. **
** Nếu chúng ta muốn hiểu khả năng của các mô hình AI tiên tiến nhất cũng như giảm thiểu những rủi ro mà việc triển khai và phát triển hơn nữa có thể gây ra, thì tốt nhất là cung cấp những mô hình này cho các nhà khoa học trên khắp thế giới. **
Cũng giống như "bảo mật thông qua sự tối nghĩa" không bao giờ có thể thực sự đảm bảo rằng mã chạy an toàn, việc bảo vệ cách thức hoạt động của các mô hình AI mạnh mẽ không nhất thiết là điều thông minh nhất nên làm.
Liên kết tham khảo: