"Có những người muốn AI bị quản lý chặt chẽ nói chung vì họ sợ hậu quả của AI. Bởi vì họ nói rằng nếu ai có thể làm chủ AI, nếu họ có thể làm bất cứ điều gì họ muốn với AI, thì tình hình sẽ có thể xảy ra. rất nguy hiểm, vì vậy cần phải có quy định chặt chẽ về AI. Tôi hoàn toàn không đồng ý với điều đó.”
Con người đã mất một thời gian dài để thiết lập các cơ chế quản lý và đạo đức hiện tại. Nếu để trí tuệ nhân tạo phát triển ý thức và trí tuệ như con người thì làm sao con người đáp ứng được các yêu cầu về đạo đức và quản trị? Cơ chế can thiệp của con người vào trí tuệ nhân tạo là gì?
Vào ngày 6 tháng 7, Hội nghị Trí tuệ Nhân tạo Thế giới năm 2023 đã khai mạc tại Thượng Hải. Yann LeCun, người chiến thắng Giải thưởng Turing 2018 và là nhà khoa học trí tuệ nhân tạo chính của nhóm Viện nghiên cứu trí tuệ nhân tạo cơ bản Meta AI, cho biết tại lễ khai mạc rằng ông hoàn toàn không đồng ý rằng "bởi vì bất kỳ ai cũng có thể sử dụng trí tuệ nhân tạo để làm bất cứ điều gì, tình huống có thể rất nguy hiểm.” , nên trí tuệ nhân tạo cần phải được quản lý chặt chẽ.” Về lâu dài, cách duy nhất để làm cho các nền tảng AI trở nên an toàn, tốt và hữu ích là mã nguồn mở chúng.
Yang Likun đã nói về cách trí tuệ nhân tạo trở nên thông minh và có thể kiểm soát được. "Nếu bạn nghĩ rằng cách để đạt được trí tuệ nhân tạo ở cấp độ con người là thực hiện LLM (Mô hình ngôn ngữ lớn) tự hồi quy lớn hơn và sau đó sử dụng thử nghiệm dữ liệu đa mô hình, thì bạn có thể nghĩ rằng các hệ thống trí tuệ nhân tạo này không an toàn. Nhưng trong thực tế tôi tôi không nghĩ rằng hệ thống này có thể rất thông minh. Tôi nghĩ cách chúng trở nên thông minh cũng là cách khiến chúng có thể kiểm soát được, tức là khái niệm trí tuệ nhân tạo hướng đến mục tiêu. Về cơ bản, đó là cung cấp cho chúng mục tiêu điều đó phải được đáp ứng." Yang Likun nói, Một số mục tiêu này là mục tiêu được xác định bởi nhiệm vụ, chẳng hạn như hệ thống đã trả lời câu hỏi chưa? Hệ thống đã khởi động xe của bạn chưa? Hệ thống đã xóa bảng chưa? Các mục tiêu khác hoạt động như hàng rào an toàn, chẳng hạn như không làm tổn thương bất kỳ ai.
Yang Likun tin rằng những hệ thống trí tuệ nhân tạo này sẽ không lừa dối hay thống trị con người thông qua việc xâm nhập từng chút một. Con người có thể đặt ra các mục tiêu buộc AI phải trung thực, chẳng hạn như buộc AI phải phục tùng con người, cẩn thận trong việc khiến chúng tò mò và cho chúng quyền truy cập vào các tài nguyên mà chúng không nên có. "Vì vậy, tôi nghĩ rằng các hệ thống này sẽ hoàn toàn có thể kiểm soát và thao tác được. Các hệ thống có thể được thiết kế để an toàn, nhưng điều đó không dễ dàng. Việc thiết kế các mục tiêu này, làm cho hệ thống trở nên an toàn, sẽ là một thách thức kỹ thuật khó khăn."
Nhưng Yang Likun nói rằng con người không nhất thiết phải thiết kế nó tốt ngay từ đầu mà có thể bắt đầu bằng việc xây dựng một hệ thống thông minh như một con chuột, mục tiêu của con người là biến nó thành một con chuột tốt. “Chúng tôi sẽ đặt chúng vào hộp cát hoặc môi trường mô phỏng và chúng tôi muốn đảm bảo chúng an toàn, đây là một vấn đề quan trọng vì có một số người nói chung muốn AI bị quản lý chặt chẽ vì họ sợ về hậu quả của AI..Bởi vì họ nói nếu ai có thể nắm giữ AI, nếu họ có thể làm bất cứ điều gì họ muốn với AI, thì tình hình có thể rất nguy hiểm, vì vậy cần phải có quy định chặt chẽ về AI.Tôi không hoàn toàn đồng ý với điều đó.”
Ngược lại, Yang Likun tin rằng về lâu dài, cách duy nhất để làm cho các nền tảng trí tuệ nhân tạo trở nên an toàn, tốt và thiết thực là mã nguồn mở. Trong tương lai, mọi người sẽ tương tác với thế giới kỹ thuật số thông qua trợ lý trí tuệ nhân tạo và tất cả thông tin của con người đều phải thông qua trợ lý trí tuệ nhân tạo này, nếu công nghệ bị kiểm soát bởi một số công ty thì đây không phải là điều tốt. "Các hệ thống AI trong tương lai sẽ là kho tàng chứa đựng tất cả kiến thức của con người và cách chúng được đào tạo cần dựa trên nhiều nguồn. Vì vậy, chúng ta sẽ thấy nhiều LLM nguồn mở hơn và nhiều hệ thống AI nguồn mở hơn trong tương lai."
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Người chiến thắng giải thưởng Turing Yang Likun: Cách duy nhất để làm cho nền tảng AI trở nên an toàn, tốt và thiết thực là mã nguồn mở
Nguồn: The Paper
Phóng viên Zhang Jing
"Có những người muốn AI bị quản lý chặt chẽ nói chung vì họ sợ hậu quả của AI. Bởi vì họ nói rằng nếu ai có thể làm chủ AI, nếu họ có thể làm bất cứ điều gì họ muốn với AI, thì tình hình sẽ có thể xảy ra. rất nguy hiểm, vì vậy cần phải có quy định chặt chẽ về AI. Tôi hoàn toàn không đồng ý với điều đó.”
Con người đã mất một thời gian dài để thiết lập các cơ chế quản lý và đạo đức hiện tại. Nếu để trí tuệ nhân tạo phát triển ý thức và trí tuệ như con người thì làm sao con người đáp ứng được các yêu cầu về đạo đức và quản trị? Cơ chế can thiệp của con người vào trí tuệ nhân tạo là gì?
Vào ngày 6 tháng 7, Hội nghị Trí tuệ Nhân tạo Thế giới năm 2023 đã khai mạc tại Thượng Hải. Yann LeCun, người chiến thắng Giải thưởng Turing 2018 và là nhà khoa học trí tuệ nhân tạo chính của nhóm Viện nghiên cứu trí tuệ nhân tạo cơ bản Meta AI, cho biết tại lễ khai mạc rằng ông hoàn toàn không đồng ý rằng "bởi vì bất kỳ ai cũng có thể sử dụng trí tuệ nhân tạo để làm bất cứ điều gì, tình huống có thể rất nguy hiểm.” , nên trí tuệ nhân tạo cần phải được quản lý chặt chẽ.” Về lâu dài, cách duy nhất để làm cho các nền tảng AI trở nên an toàn, tốt và hữu ích là mã nguồn mở chúng.
Yang Likun đã nói về cách trí tuệ nhân tạo trở nên thông minh và có thể kiểm soát được. "Nếu bạn nghĩ rằng cách để đạt được trí tuệ nhân tạo ở cấp độ con người là thực hiện LLM (Mô hình ngôn ngữ lớn) tự hồi quy lớn hơn và sau đó sử dụng thử nghiệm dữ liệu đa mô hình, thì bạn có thể nghĩ rằng các hệ thống trí tuệ nhân tạo này không an toàn. Nhưng trong thực tế tôi tôi không nghĩ rằng hệ thống này có thể rất thông minh. Tôi nghĩ cách chúng trở nên thông minh cũng là cách khiến chúng có thể kiểm soát được, tức là khái niệm trí tuệ nhân tạo hướng đến mục tiêu. Về cơ bản, đó là cung cấp cho chúng mục tiêu điều đó phải được đáp ứng." Yang Likun nói, Một số mục tiêu này là mục tiêu được xác định bởi nhiệm vụ, chẳng hạn như hệ thống đã trả lời câu hỏi chưa? Hệ thống đã khởi động xe của bạn chưa? Hệ thống đã xóa bảng chưa? Các mục tiêu khác hoạt động như hàng rào an toàn, chẳng hạn như không làm tổn thương bất kỳ ai.
Yang Likun tin rằng những hệ thống trí tuệ nhân tạo này sẽ không lừa dối hay thống trị con người thông qua việc xâm nhập từng chút một. Con người có thể đặt ra các mục tiêu buộc AI phải trung thực, chẳng hạn như buộc AI phải phục tùng con người, cẩn thận trong việc khiến chúng tò mò và cho chúng quyền truy cập vào các tài nguyên mà chúng không nên có. "Vì vậy, tôi nghĩ rằng các hệ thống này sẽ hoàn toàn có thể kiểm soát và thao tác được. Các hệ thống có thể được thiết kế để an toàn, nhưng điều đó không dễ dàng. Việc thiết kế các mục tiêu này, làm cho hệ thống trở nên an toàn, sẽ là một thách thức kỹ thuật khó khăn."
Nhưng Yang Likun nói rằng con người không nhất thiết phải thiết kế nó tốt ngay từ đầu mà có thể bắt đầu bằng việc xây dựng một hệ thống thông minh như một con chuột, mục tiêu của con người là biến nó thành một con chuột tốt. “Chúng tôi sẽ đặt chúng vào hộp cát hoặc môi trường mô phỏng và chúng tôi muốn đảm bảo chúng an toàn, đây là một vấn đề quan trọng vì có một số người nói chung muốn AI bị quản lý chặt chẽ vì họ sợ về hậu quả của AI..Bởi vì họ nói nếu ai có thể nắm giữ AI, nếu họ có thể làm bất cứ điều gì họ muốn với AI, thì tình hình có thể rất nguy hiểm, vì vậy cần phải có quy định chặt chẽ về AI.Tôi không hoàn toàn đồng ý với điều đó.”
Ngược lại, Yang Likun tin rằng về lâu dài, cách duy nhất để làm cho các nền tảng trí tuệ nhân tạo trở nên an toàn, tốt và thiết thực là mã nguồn mở. Trong tương lai, mọi người sẽ tương tác với thế giới kỹ thuật số thông qua trợ lý trí tuệ nhân tạo và tất cả thông tin của con người đều phải thông qua trợ lý trí tuệ nhân tạo này, nếu công nghệ bị kiểm soát bởi một số công ty thì đây không phải là điều tốt. "Các hệ thống AI trong tương lai sẽ là kho tàng chứa đựng tất cả kiến thức của con người và cách chúng được đào tạo cần dựa trên nhiều nguồn. Vì vậy, chúng ta sẽ thấy nhiều LLM nguồn mở hơn và nhiều hệ thống AI nguồn mở hơn trong tương lai."