Trong bộ phim khoa học viễn tưởng sắp tới của Hollywood "Người sáng lập AI", một trí tuệ nhân tạo được cho là phục vụ nhân loại đã kích nổ một quả bom hạt nhân ở Los Angeles.
Điều thậm chí còn khoa học viễn tưởng hơn cả bộ phim là trên thực tế, các công ty AI đã bắt đầu lo lắng rằng những kịch bản như vậy sẽ thực sự xuất hiện trong thế giới thực.
** Gần đây, OpenAI cho biết vì lo ngại về tính bảo mật của các hệ thống AI, công ty đang thành lập một nhóm chuyên trách để đối phó với "những rủi ro thảm khốc" mà AI tiên tiến có thể phải đối mặt, bao gồm cả các mối đe dọa hạt nhân. **
Trên thực tế, Giám đốc điều hành Sam Altman từ lâu đã lo ngại về mối đe dọa "tuyệt chủng" do AI gây ra cho nhân loại và trước đây đã nhiều lần kêu gọi quy định lớn hơn về AI, bao gồm cả tham vấn với Quốc hội Hoa Kỳ. Tuy nhiên, một nhóm các nhà khoa học, bao gồm cả nhà khoa học Meta Yann LeCun, có quan điểm khác về quy định AI, cho rằng khả năng AI vẫn còn hạn chế và quy định sớm sẽ không chỉ mang lại lợi ích cho các công ty lớn mà còn kìm hãm sự đổi mới.
Điều này nhấn mạnh sự bất đồng liên tục của ngành công nghiệp về quy định AI tiên tiến. Quy định sớm có thể hạn chế sự phát triển công nghệ, nhưng thiếu quy định sẽ gây khó khăn cho việc giải quyết các rủi ro. Làm thế nào để đạt được sự cân bằng giữa công nghệ và phòng ngừa và quy định, để AI có thể được phát triển hiệu quả và kiểm soát an toàn, vẫn là một vấn đề khó khăn trong ngành.
**01 AI, Biên giới hoặc Nguy hiểm **
Gần đây, OpenAI cho biết trong một bản cập nhật rằng vì lo ngại về tính bảo mật của các hệ thống AI, công ty đang thành lập một nhóm mới "Chuẩn bị" để theo dõi, đánh giá và dự đoán sự phát triển của "các mô hình tiên tiến" ** để ngăn chặn cái gọi là "rủi ro thảm khốc", bao gồm các vấn đề an ninh mạng và các mối đe dọa hóa học, hạt nhân và sinh học. **
Nguồn ảnh: Trang web chính thức của OpenAI
Nhóm nghiên cứu sẽ được dẫn dắt bởi Aleksander Madry, người hiện đang bị xiềng xích với tư cách là giám đốc của Trung tâm Học máy có thể triển khai MIT.
Ngoài ra, nhóm được giao nhiệm vụ phát triển và duy trì "Chính sách phát triển thông báo rủi ro" sẽ nêu chi tiết cách tiếp cận của OpenAI để xây dựng các công cụ giám sát và đánh giá mô hình AI, các hành động giảm thiểu rủi ro của công ty và cấu trúc quản trị giám sát toàn bộ quá trình phát triển mô hình. Chính sách này nhằm bổ sung cho công việc của OpenAI trong lĩnh vực bảo mật AI và duy trì tính bảo mật và tính nhất quán trước và sau khi triển khai.
OpenAI đề xuất rằng việc quản lý các rủi ro thảm khốc có thể xảy ra của các mô hình AI tiên tiến đòi hỏi phải trả lời các câu hỏi chính sau:
Một mô hình AI tiên tiến nguy hiểm như thế nào khi bị lạm dụng? **
Làm thế nào để thiết lập một khuôn khổ mạnh mẽ để giám sát, đánh giá, dự đoán và ngăn chặn sự nguy hiểm của các mô hình AI tiên tiến? **
Nếu các mô hình AI tiên tiến bị xâm phạm, các tác nhân độc hại có thể khai thác chúng như thế nào? **
Trong bản cập nhật, OpenAI viết: "Chúng tôi tin rằng... Các mô hình AI tiên tiến sẽ vượt qua các mô hình hiện đại hiện tại có tiềm năng mang lại lợi ích cho toàn nhân loại... Nhưng chúng cũng gây ra những rủi ro ngày càng nghiêm trọng".
**Trong thời gian gần đây, OpenAI đã liên tục nhấn mạnh tính bảo mật của AI và thực hiện một loạt các hành động ở cấp độ công ty, cấp dư luận và thậm chí cả cấp chính trị. **
Trước đó, vào ngày 7 tháng 7, OpenAI đã công bố thành lập một nhóm mới để khám phá các cách hướng dẫn và kiểm soát "siêu AI", đồng dẫn đầu bởi đồng sáng lập OpenAI và nhà khoa học trưởng Ilya Sutskever và người đứng đầu Alignment Jan Leike.
Sutskever và Leike đã dự đoán rằng AI ngoài trí thông minh của con người sẽ xuất hiện trong vòng 10 năm, nói rằng AI như vậy không nhất thiết phải tốt, vì vậy cần phải nghiên cứu các cách để kiểm soát và hạn chế nó.
Theo các báo cáo vào thời điểm đó, nhóm nghiên cứu đã được ưu tiên cao nhất và được hỗ trợ bởi 20% tài nguyên máy tính của công ty và mục tiêu của họ là giải quyết các thách thức kỹ thuật cốt lõi của việc kiểm soát siêu "siêu AI" trong vòng bốn năm tới.
Để trùng hợp với sự ra mắt của nhóm "Sẵn sàng", Open AI cũng tổ chức một thách thức cho người ngoài đưa ra ý tưởng về cách AI có thể bị lạm dụng và gây hại trong thế giới thực, và 10 người gửi hàng đầu sẽ nhận được giải thưởng 25.000 đô la và một công việc "sẵn sàng".
02 Lo ngại về "AI có thể dẫn đến sự tuyệt chủng của loài người"
Giám đốc điều hành của OpenAI, Sam Altman, đã lo ngại rằng AI có thể dẫn đến sự tuyệt chủng của loài người.
Tại một phiên điều trần quốc hội theo chủ đề AI vào tháng Năm, Altman nói rằng AI cần phải được quy định và nếu không có các tiêu chuẩn quy định nghiêm ngặt đối với siêu AI, sẽ có nhiều nguy hiểm hơn trong 20 năm tới.
Vào cuối tháng Năm, Altman đã ký một tuyên bố ngắn gọn với các CEO của DeepMind, Anthropic, và một số nhà nghiên cứu AI nổi tiếng, nói rằng "giảm thiểu nguy cơ tuyệt chủng do AI gây ra nên là một trong những ưu tiên toàn cầu, như trường hợp đại dịch và chiến tranh hạt nhân".
Tại Hội nghị thượng đỉnh công nghệ San Francisco vào tháng Sáu, Sam Altman đã đề cập rằng "bạn không nên tin tưởng một công ty, và chắc chắn không phải là một người" khi nói đến công nghệ AI, lập luận rằng bản thân công nghệ, lợi ích của nó, quyền truy cập, quản trị của nó, thuộc về toàn nhân loại.
Tuy nhiên, cũng có những người (đại diện bởi Elon Musk) cáo buộc Altman "kêu gọi quy định" chỉ để bảo vệ sự lãnh đạo của OpenAI. Sam Altman đã trả lời vào thời điểm đó, "Chúng tôi tin rằng nên có nhiều quy định hơn đối với các công ty lớn và các mô hình độc quyền vượt quá một ngưỡng năng lực cao nhất định, và ít quy định hơn đối với các công ty khởi nghiệp nhỏ hơn và các mô hình nguồn mở." Chúng tôi đã thấy những vấn đề mà các quốc gia đang cố gắng điều chỉnh quá mức công nghệ phải đối mặt và đó không phải là những gì chúng tôi mong đợi".
"Mọi người đang đào tạo các mô hình vượt xa quy mô của bất kỳ mô hình nào mà chúng ta có ngày nay, nhưng nếu vượt quá ngưỡng năng lực nhất định, tôi nghĩ nên có một quy trình chứng nhận, cùng với kiểm toán bên ngoài và kiểm tra bảo mật", ông nói thêm. Hơn nữa, các mô hình như vậy cần phải được báo cáo cho chính phủ và phải chịu sự giám sát của chính phủ".
Trái ngược với quan điểm của Altman, hôm 19/10, nhà khoa học Meta Yann LeCun đã bày tỏ sự phản đối đối với quy định sớm về AI trong một cuộc phỏng vấn với Financial Times.
Yann LeCun là thành viên của Viện Hàn lâm Khoa học Quốc gia, Viện Hàn lâm Kỹ thuật Quốc gia và Viện Hàn lâm Khoa học Pháp, và cũng được biết đến với công trình nghiên cứu về mạng tích chập, cũng như nhận dạng ký tự quang học và thị giác máy tính bằng cách sử dụng mạng thần kinh tích chập (CNN).
Năm 2018, Yann LeCun đã giành giải thưởng Turing (thường được gọi là "Giải Nobel về máy tính") cùng với Yoshua Bengio và Geoffrey Hinton, những người thường được gọi là "Bố già của Trí tuệ nhân tạo" và "Bố già của Deep Learning".
Trong cuộc phỏng vấn, Yann LeCun có cái nhìn tiêu cực hơn về quy định AI nói chung, lập luận rằng việc điều chỉnh các mô hình AI hiện nay giống như điều chỉnh máy bay phản lực vào năm 1925 (trước khi những chiếc máy bay như vậy được phát minh) và quy định sớm về AI sẽ chỉ củng cố sự thống trị của các công ty công nghệ lớn và kìm hãm cạnh tranh.
"Điều chỉnh nghiên cứu và phát triển AI là vô cùng phản tác dụng", Yann LeCun nói thêm rằng nhu cầu điều chỉnh AI bắt nguồn từ "sự kiêu ngạo" hoặc "vượt trội" của một số công ty công nghệ hàng đầu tin rằng chỉ có họ mới có thể được tin tưởng để phát triển AI một cách an toàn, "và họ muốn điều chỉnh dưới vỏ bọc bảo mật AI".
"Nhưng trên thực tế, cho đến khi chúng ta có thể thiết kế một hệ thống có thể phù hợp với khả năng học tập của mèo, vẫn còn quá sớm để tranh luận về những rủi ro mà AI có thể gây ra", Yann LeCun nói và cho biết thêm rằng thế hệ mô hình AI hiện tại không mạnh bằng một số nhà nghiên cứu tuyên bố, "chúng không hiểu thế giới hoạt động như thế nào, chúng không có khả năng lập kế hoạch, chúng không có khả năng đưa ra lý luận thực sự".
Theo ông, OpenAI và DeepMind của Google đã "quá lạc quan" về sự phức tạp của vấn đề, và trên thực tế, sẽ mất một số "đột phá về khái niệm" trước khi AI đạt đến mức độ thông minh của con người. Nhưng ngay cả khi đó, AI có thể được kiểm soát bằng cách mã hóa "phẩm chất đạo đức" trong hệ thống, giống như luật pháp hiện có thể được sử dụng để điều chỉnh hành vi của con người.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Lo lắng về việc AI thả bom hạt nhân xuống người, OpenAI rất nghiêm túc
Nguồn gốc: Geek Park
Tác giả: Lian Ran
Trong bộ phim khoa học viễn tưởng sắp tới của Hollywood "Người sáng lập AI", một trí tuệ nhân tạo được cho là phục vụ nhân loại đã kích nổ một quả bom hạt nhân ở Los Angeles.
Điều thậm chí còn khoa học viễn tưởng hơn cả bộ phim là trên thực tế, các công ty AI đã bắt đầu lo lắng rằng những kịch bản như vậy sẽ thực sự xuất hiện trong thế giới thực.
** Gần đây, OpenAI cho biết vì lo ngại về tính bảo mật của các hệ thống AI, công ty đang thành lập một nhóm chuyên trách để đối phó với "những rủi ro thảm khốc" mà AI tiên tiến có thể phải đối mặt, bao gồm cả các mối đe dọa hạt nhân. **
Trên thực tế, Giám đốc điều hành Sam Altman từ lâu đã lo ngại về mối đe dọa "tuyệt chủng" do AI gây ra cho nhân loại và trước đây đã nhiều lần kêu gọi quy định lớn hơn về AI, bao gồm cả tham vấn với Quốc hội Hoa Kỳ. Tuy nhiên, một nhóm các nhà khoa học, bao gồm cả nhà khoa học Meta Yann LeCun, có quan điểm khác về quy định AI, cho rằng khả năng AI vẫn còn hạn chế và quy định sớm sẽ không chỉ mang lại lợi ích cho các công ty lớn mà còn kìm hãm sự đổi mới.
Điều này nhấn mạnh sự bất đồng liên tục của ngành công nghiệp về quy định AI tiên tiến. Quy định sớm có thể hạn chế sự phát triển công nghệ, nhưng thiếu quy định sẽ gây khó khăn cho việc giải quyết các rủi ro. Làm thế nào để đạt được sự cân bằng giữa công nghệ và phòng ngừa và quy định, để AI có thể được phát triển hiệu quả và kiểm soát an toàn, vẫn là một vấn đề khó khăn trong ngành.
**01 AI, Biên giới hoặc Nguy hiểm **
Gần đây, OpenAI cho biết trong một bản cập nhật rằng vì lo ngại về tính bảo mật của các hệ thống AI, công ty đang thành lập một nhóm mới "Chuẩn bị" để theo dõi, đánh giá và dự đoán sự phát triển của "các mô hình tiên tiến" ** để ngăn chặn cái gọi là "rủi ro thảm khốc", bao gồm các vấn đề an ninh mạng và các mối đe dọa hóa học, hạt nhân và sinh học. **
Nhóm nghiên cứu sẽ được dẫn dắt bởi Aleksander Madry, người hiện đang bị xiềng xích với tư cách là giám đốc của Trung tâm Học máy có thể triển khai MIT.
Ngoài ra, nhóm được giao nhiệm vụ phát triển và duy trì "Chính sách phát triển thông báo rủi ro" sẽ nêu chi tiết cách tiếp cận của OpenAI để xây dựng các công cụ giám sát và đánh giá mô hình AI, các hành động giảm thiểu rủi ro của công ty và cấu trúc quản trị giám sát toàn bộ quá trình phát triển mô hình. Chính sách này nhằm bổ sung cho công việc của OpenAI trong lĩnh vực bảo mật AI và duy trì tính bảo mật và tính nhất quán trước và sau khi triển khai.
OpenAI đề xuất rằng việc quản lý các rủi ro thảm khốc có thể xảy ra của các mô hình AI tiên tiến đòi hỏi phải trả lời các câu hỏi chính sau:
Một mô hình AI tiên tiến nguy hiểm như thế nào khi bị lạm dụng? ** Làm thế nào để thiết lập một khuôn khổ mạnh mẽ để giám sát, đánh giá, dự đoán và ngăn chặn sự nguy hiểm của các mô hình AI tiên tiến? ** Nếu các mô hình AI tiên tiến bị xâm phạm, các tác nhân độc hại có thể khai thác chúng như thế nào? **
Trong bản cập nhật, OpenAI viết: "Chúng tôi tin rằng... Các mô hình AI tiên tiến sẽ vượt qua các mô hình hiện đại hiện tại có tiềm năng mang lại lợi ích cho toàn nhân loại... Nhưng chúng cũng gây ra những rủi ro ngày càng nghiêm trọng".
**Trong thời gian gần đây, OpenAI đã liên tục nhấn mạnh tính bảo mật của AI và thực hiện một loạt các hành động ở cấp độ công ty, cấp dư luận và thậm chí cả cấp chính trị. **
Trước đó, vào ngày 7 tháng 7, OpenAI đã công bố thành lập một nhóm mới để khám phá các cách hướng dẫn và kiểm soát "siêu AI", đồng dẫn đầu bởi đồng sáng lập OpenAI và nhà khoa học trưởng Ilya Sutskever và người đứng đầu Alignment Jan Leike.
Sutskever và Leike đã dự đoán rằng AI ngoài trí thông minh của con người sẽ xuất hiện trong vòng 10 năm, nói rằng AI như vậy không nhất thiết phải tốt, vì vậy cần phải nghiên cứu các cách để kiểm soát và hạn chế nó.
Theo các báo cáo vào thời điểm đó, nhóm nghiên cứu đã được ưu tiên cao nhất và được hỗ trợ bởi 20% tài nguyên máy tính của công ty và mục tiêu của họ là giải quyết các thách thức kỹ thuật cốt lõi của việc kiểm soát siêu "siêu AI" trong vòng bốn năm tới.
Để trùng hợp với sự ra mắt của nhóm "Sẵn sàng", Open AI cũng tổ chức một thách thức cho người ngoài đưa ra ý tưởng về cách AI có thể bị lạm dụng và gây hại trong thế giới thực, và 10 người gửi hàng đầu sẽ nhận được giải thưởng 25.000 đô la và một công việc "sẵn sàng".
02 Lo ngại về "AI có thể dẫn đến sự tuyệt chủng của loài người"
Giám đốc điều hành của OpenAI, Sam Altman, đã lo ngại rằng AI có thể dẫn đến sự tuyệt chủng của loài người.
Tại một phiên điều trần quốc hội theo chủ đề AI vào tháng Năm, Altman nói rằng AI cần phải được quy định và nếu không có các tiêu chuẩn quy định nghiêm ngặt đối với siêu AI, sẽ có nhiều nguy hiểm hơn trong 20 năm tới.
Vào cuối tháng Năm, Altman đã ký một tuyên bố ngắn gọn với các CEO của DeepMind, Anthropic, và một số nhà nghiên cứu AI nổi tiếng, nói rằng "giảm thiểu nguy cơ tuyệt chủng do AI gây ra nên là một trong những ưu tiên toàn cầu, như trường hợp đại dịch và chiến tranh hạt nhân".
Tại Hội nghị thượng đỉnh công nghệ San Francisco vào tháng Sáu, Sam Altman đã đề cập rằng "bạn không nên tin tưởng một công ty, và chắc chắn không phải là một người" khi nói đến công nghệ AI, lập luận rằng bản thân công nghệ, lợi ích của nó, quyền truy cập, quản trị của nó, thuộc về toàn nhân loại.
Tuy nhiên, cũng có những người (đại diện bởi Elon Musk) cáo buộc Altman "kêu gọi quy định" chỉ để bảo vệ sự lãnh đạo của OpenAI. Sam Altman đã trả lời vào thời điểm đó, "Chúng tôi tin rằng nên có nhiều quy định hơn đối với các công ty lớn và các mô hình độc quyền vượt quá một ngưỡng năng lực cao nhất định, và ít quy định hơn đối với các công ty khởi nghiệp nhỏ hơn và các mô hình nguồn mở." Chúng tôi đã thấy những vấn đề mà các quốc gia đang cố gắng điều chỉnh quá mức công nghệ phải đối mặt và đó không phải là những gì chúng tôi mong đợi".
"Mọi người đang đào tạo các mô hình vượt xa quy mô của bất kỳ mô hình nào mà chúng ta có ngày nay, nhưng nếu vượt quá ngưỡng năng lực nhất định, tôi nghĩ nên có một quy trình chứng nhận, cùng với kiểm toán bên ngoài và kiểm tra bảo mật", ông nói thêm. Hơn nữa, các mô hình như vậy cần phải được báo cáo cho chính phủ và phải chịu sự giám sát của chính phủ".
Trái ngược với quan điểm của Altman, hôm 19/10, nhà khoa học Meta Yann LeCun đã bày tỏ sự phản đối đối với quy định sớm về AI trong một cuộc phỏng vấn với Financial Times.
Yann LeCun là thành viên của Viện Hàn lâm Khoa học Quốc gia, Viện Hàn lâm Kỹ thuật Quốc gia và Viện Hàn lâm Khoa học Pháp, và cũng được biết đến với công trình nghiên cứu về mạng tích chập, cũng như nhận dạng ký tự quang học và thị giác máy tính bằng cách sử dụng mạng thần kinh tích chập (CNN).
Năm 2018, Yann LeCun đã giành giải thưởng Turing (thường được gọi là "Giải Nobel về máy tính") cùng với Yoshua Bengio và Geoffrey Hinton, những người thường được gọi là "Bố già của Trí tuệ nhân tạo" và "Bố già của Deep Learning".
Trong cuộc phỏng vấn, Yann LeCun có cái nhìn tiêu cực hơn về quy định AI nói chung, lập luận rằng việc điều chỉnh các mô hình AI hiện nay giống như điều chỉnh máy bay phản lực vào năm 1925 (trước khi những chiếc máy bay như vậy được phát minh) và quy định sớm về AI sẽ chỉ củng cố sự thống trị của các công ty công nghệ lớn và kìm hãm cạnh tranh.
"Điều chỉnh nghiên cứu và phát triển AI là vô cùng phản tác dụng", Yann LeCun nói thêm rằng nhu cầu điều chỉnh AI bắt nguồn từ "sự kiêu ngạo" hoặc "vượt trội" của một số công ty công nghệ hàng đầu tin rằng chỉ có họ mới có thể được tin tưởng để phát triển AI một cách an toàn, "và họ muốn điều chỉnh dưới vỏ bọc bảo mật AI".
"Nhưng trên thực tế, cho đến khi chúng ta có thể thiết kế một hệ thống có thể phù hợp với khả năng học tập của mèo, vẫn còn quá sớm để tranh luận về những rủi ro mà AI có thể gây ra", Yann LeCun nói và cho biết thêm rằng thế hệ mô hình AI hiện tại không mạnh bằng một số nhà nghiên cứu tuyên bố, "chúng không hiểu thế giới hoạt động như thế nào, chúng không có khả năng lập kế hoạch, chúng không có khả năng đưa ra lý luận thực sự".
Theo ông, OpenAI và DeepMind của Google đã "quá lạc quan" về sự phức tạp của vấn đề, và trên thực tế, sẽ mất một số "đột phá về khái niệm" trước khi AI đạt đến mức độ thông minh của con người. Nhưng ngay cả khi đó, AI có thể được kiểm soát bằng cách mã hóa "phẩm chất đạo đức" trong hệ thống, giống như luật pháp hiện có thể được sử dụng để điều chỉnh hành vi của con người.