LeCun nói rằng đại đa số các đồng nghiệp học thuật rất ủng hộ R &D AI mở, nhưng vẫn có những người phản đối.
Về vấn đề rủi ro AI, các ông lớn từ mọi tầng lớp xã hội cũng có những ý kiến khác nhau. Một số người đã đi đầu trong việc ký một lá thư chung kêu gọi lệnh cấm ngay lập tức đối với các phòng thí nghiệm AI, một quan điểm được hỗ trợ bởi bộ ba học sâu Geoffrey Hinton, Yoshua Bengio và những người khác.
Chỉ vài ngày trước, Bengio, Hinton và những người khác đã ban hành một bức thư chung "Quản lý rủi ro AI trong kỷ nguyên phát triển nhanh chóng", kêu gọi các nhà nghiên cứu thực hiện các biện pháp quản trị khẩn cấp để ưu tiên an toàn và thực hành đạo đức trước khi phát triển hệ thống AI và kêu gọi các chính phủ hành động để quản lý rủi ro do AI gây ra.
Bài báo đề cập đến một số biện pháp quản trị khẩn cấp, chẳng hạn như liên quan đến các tổ chức nhà nước để ngăn chặn mọi người lạm dụng AI. Để đạt được quy định hiệu quả, các chính phủ cần có hiểu biết toàn diện về sự phát triển của AI. Các cơ quan quản lý nên thực hiện một loạt các biện pháp, chẳng hạn như đăng ký mô hình, bảo vệ hiệu quả người tố giác và giám sát việc phát triển mô hình và sử dụng siêu máy tính. Các nhà quản lý cũng cần truy cập vào các hệ thống AI tiên tiến để đánh giá khả năng nguy hiểm của chúng trước khi triển khai.
Không chỉ vậy, vào tháng 5 năm nay, tổ chức phi lợi nhuận Trung tâm An ninh Trí tuệ Nhân tạo của Mỹ đã đưa ra một tuyên bố cảnh báo rằng trí tuệ nhân tạo nên được coi là nguy cơ tuyệt chủng của loài người như một dịch bệnh, và những người ủng hộ tuyên bố này cũng bao gồm Hinton, Bengio và những người khác.
Vào tháng 5, Hinton cũng nghỉ việc tại Google để lên tiếng về những rủi ro do AI gây ra. Trong một cuộc phỏng vấn với tờ New York Times, ông nói: "Hầu hết mọi người nghĩ rằng nó ở xa. Tôi đã từng nghĩ rằng điều này vẫn còn xa, có thể 30 đến 50 năm hoặc thậm chí lâu hơn. Nhưng rõ ràng, bây giờ tôi không nghĩ như vậy".
Có thể dự đoán, trong mắt những ông lớn AI như Hinton, quản lý rủi ro do AI gây ra là một vấn đề rất cấp bách.
Tuy nhiên, Yann LeCun, một trong Big Three về học sâu, rất lạc quan về sự phát triển của AI. Ông phần lớn phản đối việc ký một lá thư chung về những rủi ro của AI, cho rằng sự phát triển của AI không phải là mối đe dọa đối với nhân loại.
Mới đây, LeCun đã trả lời một số câu hỏi từ cư dân mạng về những rủi ro của AI trong giao tiếp với người dùng X.
Cư dân mạng đã hỏi LeCun về ý kiến của LeCun về bài báo "'Đây là biến đổi khí hậu của anh ấy': Các chuyên gia giúp Rishi Sunak đóng dấu di sản của mình", trong đó lập luận rằng bức thư chung do Hinton, Bengio và những người khác đưa ra đã thay đổi nhận thức của mọi người về AI, từ việc coi AI là trợ lý sang AI là mối đe dọa tiềm tàng ngay từ đầu. Bài báo tiếp tục nói rằng trong những tháng gần đây, các nhà quan sát ở Anh đã tìm thấy ngày càng nhiều thông tin về bầu không khí tận thế mà AI đang tạo ra. Vào tháng Ba, chính phủ Anh đã xuất bản một sách trắng hứa hẹn sẽ không kìm hãm sự đổi mới trong AI. Tuy nhiên, chỉ hai tháng sau, Vương quốc Anh bắt đầu nói về việc đặt lan can bảo vệ cho AI và thúc giục Hoa Kỳ thực hiện kế hoạch cho các quy tắc AI toàn cầu.
Địa chỉ bài viết:
Phản ứng của LeCun đối với bài báo là thế này, ông không muốn những lo ngại của Vương quốc Anh về những rủi ro chết người của AI lan sang các quốc gia khác.
Sau đó, có sự giao tiếp giữa người dùng LeCun và X mà chúng tôi đã đề cập trước đó và đây là tất cả các câu trả lời của LeCun:
"Altman, Hassabis và Amodei đang tham gia vào các cuộc vận động hành lang lớn của công ty. Họ đang cố gắng điều chỉnh ngành công nghiệp AI. Và bạn, Geoff và Yoshua đang cung cấp "đạn dược" cho những người vận động hành lang cho lệnh cấm nghiên cứu AI mở.
Nếu chiến dịch sợ hãi của bạn thành công, chắc chắn nó sẽ dẫn đến những gì cả bạn và tôi đều coi là một kết quả thảm khốc: một số ít các công ty sẽ kiểm soát AI.
Đại đa số các đồng nghiệp học thuật rất ủng hộ R &D AI mở. Rất ít người tin vào kịch bản tận thế mà bạn rao giảng. Bạn, Yoshua, Geoff và Stuart là những ngoại lệ duy nhất.
Giống như nhiều người, tôi là người ủng hộ lớn các nền tảng AI mở vì tôi tin vào sự kết hợp của các lực lượng: sự sáng tạo của mọi người, dân chủ, lực lượng thị trường và quy định sản phẩm. Tôi cũng biết rằng có thể sản xuất các hệ thống AI an toàn và dưới sự kiểm soát của chúng tôi. Tôi đã đưa ra những đề xuất cụ thể cho việc này. Tất cả những điều này sẽ thúc đẩy mọi người làm điều đúng đắn.
Bạn viết như thể AI được tạo ra từ không khí loãng, rằng đó là một hiện tượng tự nhiên ngoài tầm kiểm soát của chúng ta. Nhưng đó không phải là trường hợp. Nó đang tiến triển vì tất cả mọi người bạn và tôi biết. Chúng tôi và họ có sức mạnh để xây dựng 'điều đúng đắn'. Yêu cầu quy định về R &D (trái ngược với việc triển khai sản phẩm) ngụ ý giả định rằng những người này và các tổ chức mà họ phục vụ là bất tài, liều lĩnh, tự hủy hoại hoặc xấu xa. Nhưng đó không phải là trường hợp.
Tôi đã đưa ra rất nhiều lập luận để chứng minh rằng kịch bản tận thế mà bạn sợ là vô lý. Tôi sẽ không đi vào nó ở đây. Nhưng điểm chính là nếu một hệ thống AI mạnh mẽ được điều khiển bởi các mục tiêu, bao gồm cả lan can, thì chúng an toàn và có thể kiểm soát được vì chúng đặt ra các lan can và mục tiêu đó. (Các LLM tự hồi quy hiện tại không hướng đến mục tiêu, vì vậy chúng ta đừng suy ra từ những điểm yếu của LLM tự hồi quy).
Khi nói đến nguồn mở, hiệu quả của các hoạt động của bạn sẽ hoàn toàn trái ngược với những gì bạn đang theo đuổi. Trong tương lai, các hệ thống AI sẽ là một kho tàng kiến thức và văn hóa của nhân loại, và những gì chúng ta cần là một nền tảng mã nguồn mở và miễn phí để mọi người có thể đóng góp cho nó. Sự cởi mở là cách duy nhất để các nền tảng AI phản ánh đầy đủ kiến thức và văn hóa của con người. Điều này đòi hỏi các đóng góp cho các nền tảng này phải được huy động từ cộng đồng, tương tự như Wikipedia. Trừ khi nền tảng được mở, điều này sẽ không hoạt động.
Nếu các nền tảng AI nguồn mở được quy định, thì một kịch bản khác chắc chắn sẽ xảy ra, và đó là một số ít các công ty sẽ kiểm soát nền tảng AI, và bằng cách mở rộng, sự phụ thuộc kỹ thuật số hoàn toàn của mọi người. Điều này có ý nghĩa gì đối với nền dân chủ? Điều này có ý nghĩa gì đối với sự đa dạng văn hóa? Đó là điều khiến tôi thức đêm".
Bên dưới dòng tweet dài của LeCun, cũng có không ít người "ủng hộ" quan điểm của anh.
Irina Rish, giáo sư tại Khoa Khoa học Máy tính và Nghiên cứu Hoạt động tại Đại học Montreal, cũng là thành viên cốt lõi của Viện AI Mila - Quebec. Bà nói rằng có lẽ các nhà nghiên cứu ủng hộ AI nguồn mở nên ngừng im lặng và nên dẫn đầu trong việc phát triển AI mới nổi.
Người sáng lập Amazon Beff Jezos cũng cho biết trong phần bình luận rằng những đánh giá như vậy là quan trọng và cần thiết.
Cư dân mạng nói rằng ngay từ đầu, thảo luận về các vấn đề bảo mật có thể làm phong phú thêm trí tưởng tượng của mọi người về công nghệ trong tương lai, nhưng khoa học viễn tưởng giật gân không nên dẫn đến sự xuất hiện của các chính sách độc quyền.
Người điều hành blog Lex Fridman có nhiều điều để mong đợi trong cuộc tranh luận này.
Các cuộc thảo luận về những rủi ro của AI cũng sẽ định hình tương lai của AI. Khi một ý tưởng đánh cắp ánh đèn sân khấu, mọi người mù quáng làm theo nó. Chỉ khi hai bên có thể tiếp tục tham gia vào các cuộc thảo luận hợp lý, họ mới có thể thực sự nhìn thấy "bộ mặt thật" của AI.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Những người đoạt giải thưởng Turing đang tranh luận, và LeCun: Lý thuyết tuyệt chủng AI của Bengio, Hinton, v.v. là vô lý
Nguồn: Heart of the Machine
Về vấn đề rủi ro AI, các ông lớn từ mọi tầng lớp xã hội cũng có những ý kiến khác nhau. Một số người đã đi đầu trong việc ký một lá thư chung kêu gọi lệnh cấm ngay lập tức đối với các phòng thí nghiệm AI, một quan điểm được hỗ trợ bởi bộ ba học sâu Geoffrey Hinton, Yoshua Bengio và những người khác.
Chỉ vài ngày trước, Bengio, Hinton và những người khác đã ban hành một bức thư chung "Quản lý rủi ro AI trong kỷ nguyên phát triển nhanh chóng", kêu gọi các nhà nghiên cứu thực hiện các biện pháp quản trị khẩn cấp để ưu tiên an toàn và thực hành đạo đức trước khi phát triển hệ thống AI và kêu gọi các chính phủ hành động để quản lý rủi ro do AI gây ra.
Bài báo đề cập đến một số biện pháp quản trị khẩn cấp, chẳng hạn như liên quan đến các tổ chức nhà nước để ngăn chặn mọi người lạm dụng AI. Để đạt được quy định hiệu quả, các chính phủ cần có hiểu biết toàn diện về sự phát triển của AI. Các cơ quan quản lý nên thực hiện một loạt các biện pháp, chẳng hạn như đăng ký mô hình, bảo vệ hiệu quả người tố giác và giám sát việc phát triển mô hình và sử dụng siêu máy tính. Các nhà quản lý cũng cần truy cập vào các hệ thống AI tiên tiến để đánh giá khả năng nguy hiểm của chúng trước khi triển khai.
Không chỉ vậy, vào tháng 5 năm nay, tổ chức phi lợi nhuận Trung tâm An ninh Trí tuệ Nhân tạo của Mỹ đã đưa ra một tuyên bố cảnh báo rằng trí tuệ nhân tạo nên được coi là nguy cơ tuyệt chủng của loài người như một dịch bệnh, và những người ủng hộ tuyên bố này cũng bao gồm Hinton, Bengio và những người khác.
Vào tháng 5, Hinton cũng nghỉ việc tại Google để lên tiếng về những rủi ro do AI gây ra. Trong một cuộc phỏng vấn với tờ New York Times, ông nói: "Hầu hết mọi người nghĩ rằng nó ở xa. Tôi đã từng nghĩ rằng điều này vẫn còn xa, có thể 30 đến 50 năm hoặc thậm chí lâu hơn. Nhưng rõ ràng, bây giờ tôi không nghĩ như vậy".
Có thể dự đoán, trong mắt những ông lớn AI như Hinton, quản lý rủi ro do AI gây ra là một vấn đề rất cấp bách.
Tuy nhiên, Yann LeCun, một trong Big Three về học sâu, rất lạc quan về sự phát triển của AI. Ông phần lớn phản đối việc ký một lá thư chung về những rủi ro của AI, cho rằng sự phát triển của AI không phải là mối đe dọa đối với nhân loại.
Mới đây, LeCun đã trả lời một số câu hỏi từ cư dân mạng về những rủi ro của AI trong giao tiếp với người dùng X.
Phản ứng của LeCun đối với bài báo là thế này, ông không muốn những lo ngại của Vương quốc Anh về những rủi ro chết người của AI lan sang các quốc gia khác.
"Altman, Hassabis và Amodei đang tham gia vào các cuộc vận động hành lang lớn của công ty. Họ đang cố gắng điều chỉnh ngành công nghiệp AI. Và bạn, Geoff và Yoshua đang cung cấp "đạn dược" cho những người vận động hành lang cho lệnh cấm nghiên cứu AI mở.
Nếu chiến dịch sợ hãi của bạn thành công, chắc chắn nó sẽ dẫn đến những gì cả bạn và tôi đều coi là một kết quả thảm khốc: một số ít các công ty sẽ kiểm soát AI.
Đại đa số các đồng nghiệp học thuật rất ủng hộ R &D AI mở. Rất ít người tin vào kịch bản tận thế mà bạn rao giảng. Bạn, Yoshua, Geoff và Stuart là những ngoại lệ duy nhất.
Giống như nhiều người, tôi là người ủng hộ lớn các nền tảng AI mở vì tôi tin vào sự kết hợp của các lực lượng: sự sáng tạo của mọi người, dân chủ, lực lượng thị trường và quy định sản phẩm. Tôi cũng biết rằng có thể sản xuất các hệ thống AI an toàn và dưới sự kiểm soát của chúng tôi. Tôi đã đưa ra những đề xuất cụ thể cho việc này. Tất cả những điều này sẽ thúc đẩy mọi người làm điều đúng đắn.
Bạn viết như thể AI được tạo ra từ không khí loãng, rằng đó là một hiện tượng tự nhiên ngoài tầm kiểm soát của chúng ta. Nhưng đó không phải là trường hợp. Nó đang tiến triển vì tất cả mọi người bạn và tôi biết. Chúng tôi và họ có sức mạnh để xây dựng 'điều đúng đắn'. Yêu cầu quy định về R &D (trái ngược với việc triển khai sản phẩm) ngụ ý giả định rằng những người này và các tổ chức mà họ phục vụ là bất tài, liều lĩnh, tự hủy hoại hoặc xấu xa. Nhưng đó không phải là trường hợp.
Tôi đã đưa ra rất nhiều lập luận để chứng minh rằng kịch bản tận thế mà bạn sợ là vô lý. Tôi sẽ không đi vào nó ở đây. Nhưng điểm chính là nếu một hệ thống AI mạnh mẽ được điều khiển bởi các mục tiêu, bao gồm cả lan can, thì chúng an toàn và có thể kiểm soát được vì chúng đặt ra các lan can và mục tiêu đó. (Các LLM tự hồi quy hiện tại không hướng đến mục tiêu, vì vậy chúng ta đừng suy ra từ những điểm yếu của LLM tự hồi quy).
Khi nói đến nguồn mở, hiệu quả của các hoạt động của bạn sẽ hoàn toàn trái ngược với những gì bạn đang theo đuổi. Trong tương lai, các hệ thống AI sẽ là một kho tàng kiến thức và văn hóa của nhân loại, và những gì chúng ta cần là một nền tảng mã nguồn mở và miễn phí để mọi người có thể đóng góp cho nó. Sự cởi mở là cách duy nhất để các nền tảng AI phản ánh đầy đủ kiến thức và văn hóa của con người. Điều này đòi hỏi các đóng góp cho các nền tảng này phải được huy động từ cộng đồng, tương tự như Wikipedia. Trừ khi nền tảng được mở, điều này sẽ không hoạt động.
Nếu các nền tảng AI nguồn mở được quy định, thì một kịch bản khác chắc chắn sẽ xảy ra, và đó là một số ít các công ty sẽ kiểm soát nền tảng AI, và bằng cách mở rộng, sự phụ thuộc kỹ thuật số hoàn toàn của mọi người. Điều này có ý nghĩa gì đối với nền dân chủ? Điều này có ý nghĩa gì đối với sự đa dạng văn hóa? Đó là điều khiến tôi thức đêm".
Bên dưới dòng tweet dài của LeCun, cũng có không ít người "ủng hộ" quan điểm của anh.
Irina Rish, giáo sư tại Khoa Khoa học Máy tính và Nghiên cứu Hoạt động tại Đại học Montreal, cũng là thành viên cốt lõi của Viện AI Mila - Quebec. Bà nói rằng có lẽ các nhà nghiên cứu ủng hộ AI nguồn mở nên ngừng im lặng và nên dẫn đầu trong việc phát triển AI mới nổi.
Người điều hành blog Lex Fridman có nhiều điều để mong đợi trong cuộc tranh luận này.