"Oppenheimer" ra rạp, liệu Sam Altman có phải là người tiếp theo?

Được viết bởi: Nathan Gardels

Xuất xứ: Noema

Công nghệ quản lý có thể hủy diệt xã hội.

Nguồn hình ảnh: được tạo bởi công cụ AI không giới hạn

Đạo diễn phim Christopher Nolan cho biết ông đã nói chuyện với các nhà khoa học trí tuệ nhân tạo, những người đang trải qua "khoảnh khắc Oppenheimer" và lo lắng về khả năng hủy diệt của những sáng tạo của họ. “Tôi đang kể câu chuyện về Oppenheimer,” anh nói về bộ phim tiểu sử về Oppenheimer của mình, “bởi vì tôi nghĩ đó là một câu chuyện quan trọng và chắc chắn là một câu chuyện mang tính cảnh báo.” Trên thực tế, một số người đã so sánh Ultraman Sam của OpenAI với cha đẻ của bom nguyên tử.

Oppenheimer được các nhà viết tiểu sử của ông mệnh danh là "Prometheus của nước Mỹ" vì ông đã giải mã được từ các vị thần bí mật về lửa hạt nhân, phân tách vật chất và giải phóng một nguồn năng lượng khủng khiếp mà ông lo sợ có thể thiêu rụi nền văn minh nhân loại.

Altman cũng đang tự hỏi liệu việc sử dụng ChatGPT để thúc đẩy sự phát triển của trí tuệ nhân tạo tổng hợp có phải là một "điều rất xấu" hay không. Ông nói trong một phiên điều trần tại Thượng viện rằng: "Nếu công nghệ này gặp trục trặc, nó có thể là một thảm họa". Gregory Hinton, được biết đến như là cha đỡ đầu của trí tuệ nhân tạo, đã rời Google vào tháng 5, nói rằng ông không tôn trọng công việc cả đời mình. máy móc thông minh hơn con người -- một phần là điều đáng tiếc. Ông cảnh báo: “Chúng ta sẽ rất khó ngăn chặn những kẻ xấu sử dụng AI để làm điều xấu”. Hơn nữa, những đồng nghiệp khác của ông cũng nói về “nguy cơ tuyệt chủng AI”, đặt nó cạnh các mối đe dọa hiện hữu khác như chiến tranh hạt nhân. , biến đổi khí hậu và đại dịch.

Theo quan điểm của Yuval Noah Harari (tác giả cuốn "Lược sử loài người"), trí tuệ nhân tạo có thể tạo ra sức hủy diệt đối với xã hội giống như bom nguyên tử. các Lần này, Homo sapiens đã trở thành những vị thần và những đứa con vô cơ mà họ sinh ra một ngày nào đó có thể sẽ thay thế tổ tiên của họ. Trong một cuộc trò chuyện cách đây vài năm, Harari đã nói thế này: "Lịch sử loài người bắt đầu khi con người tạo ra các vị thần. Lịch sử loài người kết thúc khi con người trở thành các vị thần".

Harari và các đồng tác giả Tristan Harris và Aza Raskin giải thích trong một bài báo gần đây: "Ban đầu là ngôn ngữ. Ngôn ngữ là hệ điều hành của văn hóa con người. Từ ngôn ngữ đến huyền thoại và luật pháp, thần thánh và tiền bạc, nghệ thuật và khoa học, tình bạn, Nhà nước và mã máy tính. Khả năng làm chủ ngôn ngữ mới của AI có nghĩa là giờ đây nó có thể hack và thao túng các hệ điều hành của nền văn minh. Bằng cách làm chủ ngôn ngữ, AI đang chiếm giữ các chìa khóa chính của nền văn minh, từ kho tiền ngân hàng đến lăng mộ thánh.”

Họ tiếp tục viết:

Hàng nghìn năm nay, con người chúng ta vẫn sống trong giấc mơ của người khác. Chúng ta tôn thờ các vị thần, theo đuổi những lý tưởng cao đẹp và cống hiến cuộc đời mình cho những mục đích bắt nguồn từ trí tưởng tượng của các nhà tiên tri, nhà thơ hoặc chính khách. Chẳng bao lâu nữa, chúng ta cũng sẽ thấy mình đang sống trong ảo tưởng về trí thông minh siêu phàm...

Chẳng bao lâu nữa chúng ta sẽ phải đối mặt với con quỷ của Descartes, hang động của Plato và Phật giáo Maya. Một bức màn ảo ảnh có thể bao trùm toàn bộ nhân loại và chúng ta có thể không bao giờ vén nó lên được nữa - hoặc thậm chí không bao giờ nhận thức được sự tồn tại của nó.

Nhà sử học và triết gia người Israel kinh hoàng trước viễn cảnh các thực thể không phải con người viết nên câu chuyện của chúng ta đến mức ông nhiệt tình khuyến nghị Homo sapiens nên dừng lại trước khi nhường lại quyền làm chủ vương quốc cho các công nghệ được trao quyền của chúng ta.

Họ cảnh báo: "Chúng ta nên nhận thức được AI trước khi chính trị, nền kinh tế và cuộc sống hàng ngày của chúng ta phụ thuộc vào nó. Nếu chúng ta đợi cho đến khi sự gián đoạn xảy ra thì sẽ quá muộn."

Khả năng xảy ra kịch bản “Kẻ hủy diệt” là thấp

Phó chủ tịch Google Blaise Agüera Y Arcas và các đồng nghiệp tại Viện Trí tuệ nhân tạo Quebec viết trên tạp chí Noema rằng họ không nghĩ bối cảnh Hollywood của "Kẻ hủy diệt" sẽ xuất hiện trong tương lai gần. Thay vào đó, họ lo lắng rằng việc tập trung vào "các mối đe dọa hiện hữu" trong tương lai xa sẽ khiến mọi người mất tập trung vào việc giảm thiểu những mối nguy hiểm rõ ràng mà AI gây ra cho xã hội ngày nay.

Ngay cả trước khi AI trở nên siêu hiểu biết, nỗi sợ hãi tồi tệ nhất của họ đã hiện hữu: giám sát hàng loạt, thông tin sai lệch và thao túng, lạm dụng AI trong quân đội và thay thế hàng loạt công việc chuyên môn.

Đối với nhóm các nhà khoa học và công nghệ này, "sự tuyệt chủng của AI giả mạo là một kịch bản cực kỳ khó xảy ra dựa trên những giả định đáng nghi vấn về sự tiến hóa lâu dài của sự sống, trí thông minh, công nghệ và xã hội. Đó cũng là một kịch bản khó xảy ra." -kịch bản rất có thể xảy ra, vì một hệ thống AI siêu thông minh sẽ cần phải vượt qua nhiều hạn chế và ràng buộc về mặt vật lý trước khi có thể 'nổi loạn' theo cách này. Có nhiều điểm kiểm soát tự nhiên mà các nhà nghiên cứu có thể giúp giảm thiểu bằng cách giải quyết các thách thức hữu hình và cấp bách. rủi ro mà không đặt rủi ro hiện hữu thành ưu tiên toàn cầu một cách rõ ràng.”

Theo quan điểm của họ, "có ba cách gây ra sự tuyệt chủng: cạnh tranh tài nguyên, săn bắn và tiêu thụ quá mức, hoặc thay đổi khí hậu hoặc ổ sinh thái của nó khiến các điều kiện môi trường dẫn đến sự diệt vong của nó. Cả ba kịch bản này đều không áp dụng cho AI hiện tại".

Quan trọng nhất, "Hiện tại, AI phụ thuộc vào chúng ta và siêu trí tuệ có lẽ sẽ nhận ra sự thật này và tìm cách bảo vệ loài người, vì chúng ta quan trọng đối với sự tồn tại của AI cũng như các nhà máy sản xuất oxy đối với sự tồn tại của chúng ta. Đó là lý do tại sao Sự tiến hóa tạo nên sự phụ thuộc lẫn nhau giữa AI." và con người có nhiều khả năng hơn so với sự cạnh tranh.”

Trả một "cái giá vô hạn" cho "kết quả khó xảy ra" của sự tuyệt chủng cũng giống như việc chúng ta dành toàn bộ sức mạnh công nghệ để chống lại khả năng một thiên thạch va vào Trái đất và biến nó thành ưu tiên hàng đầu của hành tinh. Nói một cách đơn giản, “những rủi ro hiện hữu do AI siêu thông minh gây ra không đáng được xếp cùng với biến đổi khí hậu, chiến tranh hạt nhân và phòng chống đại dịch là ưu tiên toàn cầu”.

Một khoảnh khắc khác của Oppenheimer

Bất kỳ mối nguy hiểm nào, dù gần hay xa, có thể nảy sinh từ sự cạnh tranh giữa con người và siêu trí tuệ mới chớm nở sẽ chỉ trở nên trầm trọng hơn bởi sự cạnh tranh giữa các quốc gia-dân tộc.

Trong những năm cuối đời, Oppenheimer bị bức hại, cô lập và bị Ủy ban Năng lượng Nguyên tử Hoa Kỳ thu hồi giấy phép an ninh do lòng nhiệt thành của McCarthyite thời kỳ đầu Chiến tranh Lạnh coi ông như một người cộng sản. Tội ác của ông: phản đối việc triển khai bom khinh khí và kêu gọi hợp tác với các nước khác để kiểm soát việc sử dụng vũ khí hạt nhân.

Trong bài phát biểu trước các nhà khoa học AI ở Bắc Kinh vào tháng 6, Altman cũng kêu gọi hợp tác về cách quản lý việc sử dụng AI. “Trung Quốc có tài năng AI giỏi nhất thế giới”, ông nói. Việc kiểm soát các hệ thống AI tiên tiến "đòi hỏi những bộ óc giỏi nhất từ khắp nơi trên thế giới. Với các hệ thống AI ngày càng mạnh mẽ, tiền đặt cọc cho sự hợp tác toàn cầu chưa bao giờ cao hơn thế".

Người ta không thể không tự hỏi sẽ mất bao lâu để ý thức chung về trách nhiệm khoa học của Altman bị cuốn vào cơn cuồng loạn McCarthyite hiện nay chống lại Trung Quốc ở Washington, giống như của Oppenheimer.

Trong số những mối nguy hiểm rõ ràng và hiện tại do trí tuệ nhân tạo gây ra, đầu tiên và quan trọng nhất là làm thế nào nó có thể được vũ khí hóa. Như Harari cảnh báo, bây giờ là lúc phải đối phó với mối đe dọa này, không chỉ khi nó trở thành hiện thực và đã quá muộn. Những người tham gia có trách nhiệm cần sử dụng trí tuệ mà máy móc không thể truyền đạt và làm việc cùng nhau để giảm thiểu rủi ro. Nếu Ultraman phải chịu một khoảnh khắc khác của Oppenheimer, những rủi ro hiện hữu sẽ đến gần hơn bao giờ hết.

Trong một dấu hiệu đáng hoan nghênh, Ngoại trưởng Hoa Kỳ Antony Blinken và Bộ trưởng Thương mại Gina Raimondo thừa nhận rằng "không một quốc gia hay công ty nào có thể một mình định hình tương lai của AI... Chỉ thông qua sự quan tâm, trí tuệ và hợp tác chung của cộng đồng quốc tế, chúng ta mới có thể khai thác triệt để và an toàn tiềm năng của trí tuệ nhân tạo.”

Tuy nhiên, cho đến nay, các sáng kiến của họ dù rất quan trọng nhưng vẫn bị hạn chế bởi sự cạnh tranh chiến lược. Đối với các quốc gia trên thế giới, thách thức nghiêm trọng nhất là làm thế nào để liên lạc trực tiếp nhằm ngăn chặn cuộc chạy đua vũ trang AI trở nên tồi tệ hơn trước khi nó vượt quá tầm kiểm soát.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)