Trong những ngày gần đây, cuộc thảo luận về cách giám sát AI ngày càng trở nên nóng bỏng, và các ông lớn có những ý kiến rất khác nhau.
Ví dụ, bộ ba giải thưởng Turing Geoffrey Hinton, Yoshua Bengio và Yann LeCun có hai quan điểm. Hinton và Bengio là một nhóm kêu gọi mạnh mẽ quy định chặt chẽ hơn về AI, điều này có thể dẫn đến nguy cơ "tuyệt chủng AI". LeCun không chia sẻ quan điểm của họ, cho rằng quy định mạnh mẽ về AI chắc chắn sẽ dẫn đến sự độc quyền của những người khổng lồ, với kết quả là chỉ có một vài công ty kiểm soát R &D AI.
Để bày tỏ ý tưởng của mình, nhiều người đã ký một lá thư chung để truyền đạt quan điểm của họ, ví dụ, trong vài ngày qua, Bengio, Hinton và những người khác đã ban hành một bức thư chung "Quản lý rủi ro AI trong kỷ nguyên phát triển nhanh chóng", kêu gọi các nhà nghiên cứu thực hiện các biện pháp quản trị khẩn cấp trước khi phát triển hệ thống AI.
Đồng thời, một bức thư ngỏ có tiêu đề "Tuyên bố chung về an ninh và cởi mở của trí tuệ nhân tạo" hiện đang lên men trên phương tiện truyền thông xã hội.
Liên kết đến thư ngỏ:
Cho đến nay, hơn 370 người, bao gồm LeCun, một trong ba gã khổng lồ của học sâu và Andrew Ng, giáo sư Khoa Khoa học Máy tính tại Đại học Stanford, đã ký vào bức thư ngỏ. Danh sách liên tục được cập nhật.
"Truy cập mở, minh bạch và rộng rãi làm cho nền tảng phần mềm an toàn và đáng tin cậy hơn. Bức thư ngỏ này từ Mozilla Foundation, mà tôi cũng đã ký, đưa ra trường hợp cho các nền tảng và hệ thống AI mở.
Sau đây là nội dung thư ngỏ:
Chúng ta đang ở một thời điểm quan trọng trong quản trị AI. Để giảm thiểu tác hại hiện tại và tương lai của các hệ thống AI, chúng ta cần nắm lấy sự cởi mở, minh bạch và tiếp cận rộng rãi. Điều này cần phải là một ưu tiên toàn cầu.
Đúng là các mô hình có sẵn công khai có rủi ro và dễ bị tổn thương - các mô hình AI có thể bị lạm dụng bởi các tác nhân độc hại hoặc được triển khai bởi các nhà phát triển được trang bị kém. Tuy nhiên, hết lần này đến lần khác, chúng ta đã thấy điều này với tất cả các loại công nghệ độc quyền - tăng cường truy cập và kiểm duyệt công khai làm cho công nghệ an toàn hơn, không nguy hiểm hơn. Ý tưởng rằng kiểm soát chặt chẽ và độc quyền các mô hình AI cơ bản là cách duy nhất để bảo vệ chúng ta khỏi tác hại hàng loạt là ngây thơ nhất và nguy hiểm ở mức tồi tệ nhất.
Hơn nữa, lịch sử phát triển của con người dạy chúng ta rằng việc áp dụng nhanh chóng các quy định sai lầm có thể dẫn đến sự tập trung quyền lực, có thể gây tổn hại cho cạnh tranh và đổi mới. Một mô hình mở có thể cung cấp thông tin cho cuộc tranh luận công khai và cải thiện phát triển chiến lược. Nếu mục tiêu của chúng tôi là an toàn, bảo mật và trách nhiệm giải trình, thì sự cởi mở và minh bạch là những yếu tố quan trọng để đạt được mục tiêu này.
Chúng ta đang ở giữa một cuộc thảo luận năng động về ý nghĩa của việc "cởi mở" trong thời đại AI. Cuộc tranh luận quan trọng này không nên bị chậm lại. Thay vào đó, nó nên được tăng tốc, khuyến khích chúng ta thử nghiệm, học hỏi và phát triển những cách mới để tận dụng sự cởi mở trong cuộc đua bảo mật AI.
Chúng ta cần xây dựng một tập hợp các phương pháp tiếp cận nguồn mở và tính mở có thể đóng vai trò là các khối xây dựng cho:
Tăng tốc sự hiểu biết về rủi ro và mối nguy hiểm của khả năng AI thông qua nghiên cứu độc lập, hợp tác và chia sẻ kiến thức. 2. Tăng cường giám sát và trách nhiệm giải trình của công chúng bằng cách giúp các cơ quan quản lý áp dụng các công cụ để giám sát các hệ thống AI quy mô lớn. 3. Giảm rào cản gia nhập cho người chơi mới và tập trung vào việc tạo ra AI có trách nhiệm.
Là những người ký tên vào bức thư ngỏ này, chúng tôi là một nhóm đa dạng gồm các nhà khoa học, chiến lược gia, kỹ sư, nhà hoạt động, doanh nhân, nhà giáo dục và nhà báo, để kể tên một vài người. Chúng tôi đại diện cho các quan điểm khác nhau về cách quản lý và xuất bản AI nguồn mở. Tuy nhiên, chúng tôi đồng ý mạnh mẽ về một điều: một cách tiếp cận cởi mở, có trách nhiệm và minh bạch là điều cần thiết để giữ cho chúng ta an toàn trong thời đại AI.
Khi nói đến bảo mật AI, sự cởi mở là thuốc giải độc, không phải là chất độc.
Ký bởi:
Arthur Mensch, đồng sáng lập và CEO của công ty khởi nghiệp Pháp MistralAI
Andrew Ng, người sáng lập DeepLearning.AI, người sáng lập và CEO của Landing AI, giáo sư khoa học máy tính tại Đại học Stanford
Yann Lecun, người chiến thắng giải thưởng Turing, Giám đốc khoa học AI tại Meta
Julien Chaumond, CTO ôm mặt
Brian Behlendorf, Thành viên sáng lập của Apache, CTO của OpenSSF
Eric Von Hippel là một nhà kinh tế học người Mỹ và giáo sư tại Trường Quản lý MIT Sloan
......
Hiện tại, bức thư ngỏ này chỉ mới xuất hiện được vài ngày đã tiếp tục lên men và đã thu hút sự chú ý và thảo luận lớn trong cộng đồng AI nước ngoài, vì vậy bạn có thể tiếp tục chú ý đến việc cập nhật danh sách.
Nếu bạn đồng ý với ý tưởng của bức thư chung, bạn cũng có thể gửi chữ ký của riêng bạn.
Sẽ mất thời gian để trả lời liệu quy định mạnh mẽ của AI sẽ gây hại nhiều hơn lợi, hoặc liệu lợi ích có lớn hơn những bất lợi hay không.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Hơn 370 người, bao gồm LeCun và Ng Enda, đã ký một bức thư chung: Kiểm soát chặt chẽ AI là nguy hiểm và sự cởi mở là liều thuốc giải độc
Nguồn gốc: Heart of the Machine
Trong những ngày gần đây, cuộc thảo luận về cách giám sát AI ngày càng trở nên nóng bỏng, và các ông lớn có những ý kiến rất khác nhau.
Ví dụ, bộ ba giải thưởng Turing Geoffrey Hinton, Yoshua Bengio và Yann LeCun có hai quan điểm. Hinton và Bengio là một nhóm kêu gọi mạnh mẽ quy định chặt chẽ hơn về AI, điều này có thể dẫn đến nguy cơ "tuyệt chủng AI". LeCun không chia sẻ quan điểm của họ, cho rằng quy định mạnh mẽ về AI chắc chắn sẽ dẫn đến sự độc quyền của những người khổng lồ, với kết quả là chỉ có một vài công ty kiểm soát R &D AI.
Để bày tỏ ý tưởng của mình, nhiều người đã ký một lá thư chung để truyền đạt quan điểm của họ, ví dụ, trong vài ngày qua, Bengio, Hinton và những người khác đã ban hành một bức thư chung "Quản lý rủi ro AI trong kỷ nguyên phát triển nhanh chóng", kêu gọi các nhà nghiên cứu thực hiện các biện pháp quản trị khẩn cấp trước khi phát triển hệ thống AI.
Đồng thời, một bức thư ngỏ có tiêu đề "Tuyên bố chung về an ninh và cởi mở của trí tuệ nhân tạo" hiện đang lên men trên phương tiện truyền thông xã hội.
Cho đến nay, hơn 370 người, bao gồm LeCun, một trong ba gã khổng lồ của học sâu và Andrew Ng, giáo sư Khoa Khoa học Máy tính tại Đại học Stanford, đã ký vào bức thư ngỏ. Danh sách liên tục được cập nhật.
"Truy cập mở, minh bạch và rộng rãi làm cho nền tảng phần mềm an toàn và đáng tin cậy hơn. Bức thư ngỏ này từ Mozilla Foundation, mà tôi cũng đã ký, đưa ra trường hợp cho các nền tảng và hệ thống AI mở.
Ký bởi:
Hiện tại, bức thư ngỏ này chỉ mới xuất hiện được vài ngày đã tiếp tục lên men và đã thu hút sự chú ý và thảo luận lớn trong cộng đồng AI nước ngoài, vì vậy bạn có thể tiếp tục chú ý đến việc cập nhật danh sách.
Nếu bạn đồng ý với ý tưởng của bức thư chung, bạn cũng có thể gửi chữ ký của riêng bạn.
Sẽ mất thời gian để trả lời liệu quy định mạnh mẽ của AI sẽ gây hại nhiều hơn lợi, hoặc liệu lợi ích có lớn hơn những bất lợi hay không.