Bài phát biểu tại Cambridge của "cha đẻ của ChatGPT" đã bị tẩy chay, và các ông lớn học thuật đã chiến đấu quyết liệt để bảo mật AI

Nguồn bài viết: Titanium Media

Tác giả: Lin Zhijia

Dựng phim: Mã Kim Nam

*Bài viết này được xuất bản lần đầu tiên trên Titanium Media APP *

Andrew Ng, người sáng lập Google Brain và là giáo sư tại Đại học Stanford, chỉ ra rằng việc điều chỉnh AI phá hủy sự đổi mới. Mặt khác, Musk tin rằng AI nguy hiểm hơn vũ khí hạt nhân (bom hạt nhân).

Với việc chính phủ Hoa Kỳ ban hành các quy định AI mới, đã có một sự hồi sinh gần đây của tranh cãi về quy định của các mô hình AI lớn.

Vào sáng sớm ngày 2/11, theo giờ Bắc Kinh, khi Sam Altman, "cha đẻ của ChatGPT" và CEO của OpenAI, tham gia một sự kiện ở Cambridge, Anh, ông đã bị các nhà hoạt động chống AI phản đối mạnh mẽ, và bị "đập tan" trước mặt ông trong khán phòng, và một số người biểu tình yêu cầu dừng cuộc thi AI.

Một số người biểu tình thậm chí còn treo biểu ngữ và thả truyền đơn trên ban công, và khung cảnh hỗn loạn trong một thời gian. Tất nhiên, Ultraman đã rất bình tĩnh và hoàn thành sự kiện một cách bình tĩnh.

Trong bài phát biểu của mình, Altman nói rằng ngay cả khi các mô hình AI đủ mạnh trong tương lai, chúng sẽ đòi hỏi sức mạnh tính toán khổng lồ để chạy. Nếu ngưỡng sức mạnh tính toán được nâng lên, nguy cơ tội phạm có chủ ý có thể giảm và trách nhiệm giải trình cũng có thể được cải thiện. Trước đó, đồng sáng lập OpenAI, Ilya Sutskever đã thẳng thừng nói rằng ChatGPT có thể có ý thức và AI sẽ có những rủi ro tiềm ẩn.

Đồng thời, Yann LeCun, nhà khoa học trưởng của Meta AI và là người chiến thắng "Giải thưởng Turing" năm 2018, gần đây đã liên tục chỉ trích Altman, Giám đốc điều hành DeepMind Demis Hassabis, Giám đốc điều hành Anthropic và những người khác trên các nền tảng xã hội vì "vận động hành lang doanh nghiệp quy mô lớn" cho chính phủ Mỹ, điều này cuối cùng có thể dẫn đến việc chỉ một vài gã khổng lồ công nghệ lớn có thể kiểm soát công nghệ AI.

Dương Lệ Côn chỉ ra rằng những người này gieo rắc nỗi sợ hãi. "Nếu họ thành công, bạn và tôi chắc chắn sẽ dẫn đến một thảm họa - một số ít các công ty sẽ kiểm soát AI."

Sau đó, Hassabis vặn lại: "Tôi hoàn toàn không đồng ý với hầu hết các nhận xét của Dương Lệ Côn. Ông chỉ ra rằng Google DeepMind không cố gắng đạt được "nắm bắt quy định" khi thảo luận về cách tốt nhất để sử dụng AI và điều quan trọng hơn là bắt đầu thảo luận về cách điều chỉnh siêu AI tiềm năng ngay bây giờ.

Vào thời điểm mà sự cạnh tranh cho các mô hình lớn AI ngày càng trở nên khốc liệt, ngành công nghiệp đã bước vào một cuộc "cận chiến", và mọi người đều tham gia vào những trận chiến khốc liệt xung quanh chủ đề những người khổng lồ kiểm soát AI.

AI là mối đe dọa lớn nhất đối với nhân loại? Musk: AI sẽ thông minh hơn con người

Trong 12 tháng qua, ChatGPT đã gây bão trên toàn thế giới và AI đã hoàn toàn trở thành một chủ đề trung tâm trong thế giới công nghệ năm nay.

Giờ đây, Apple cũng đang nắm lấy AI.

Tại hội nghị thu nhập quý IV vào sáng ngày 3/11, giờ Bắc Kinh, CEO Tim Cook của Apple cho biết Apple đã thực hiện nhiều công việc khác nhau trong lĩnh vực AI và đang đầu tư rất nhiều tiền để làm điều đó một cách có trách nhiệm. "Theo thời gian, bạn sẽ thấy rằng các sản phẩm của Apple với những công nghệ này làm cốt lõi sẽ phát triển."

Trước đó Bloomberg đã báo cáo rằng Apple đang âm thầm bắt kịp các đối thủ trong lĩnh vực AI, một mặt, họ đã tăng cường tuyển dụng liên quan đến AI, mặt khác, nó đã đẩy nhanh sự trưởng thành và triển khai công nghệ AI thông qua sáp nhập và mua lại các công ty khởi nghiệp, và đã bắt đầu phát triển các mô hình ngôn ngữ lớn trong nội bộ, nội bộ được gọi là AppleGPT.

Đồng thời, nhóm xAI được thành lập bởi Elon Musk, người giàu nhất thế giới về công nghệ và CEO của Tesla, với giá trị tài sản ròng 220 tỷ USD, cũng được đồn đoán có lô thông tin sản phẩm đầu tiên, bao gồm Grok liên quan đến truy xuất thông tin AI, máy trạm nhắc nhở IDE, v.v. Ngoài ra, những gã khổng lồ công nghệ như Google, Microsoft, Amazon cũng đang tham gia vào làn sóng AI.

Tuy nhiên, các nhà lãnh đạo ngành công nghiệp, bao gồm Elon Musk và Ultraman, gần đây đã nói về khả năng gây chết người tiềm ẩn của AI và những rủi ro của AI hàng tuần. Điều này dường như đã trở thành một "sự đồng thuận vòng tròn nhỏ".

Hôm 2/11, Musk nói trong Hội nghị thượng đỉnh AI của Anh rằng AI là một trong những mối đe dọa lớn nhất đối với nhân loại và AI sẽ trở thành lực lượng gây rối nhất trong lịch sử và sẽ thông minh hơn con người. Ông tin rằng AI một ngày nào đó sẽ khiến mọi người mất việc.

"AI có khả năng làm bất cứ điều gì, và tôi không biết liệu điều đó sẽ khiến con người cảm thấy thoải mái hay không thoải mái. Nếu bạn muốn có một yêu tinh ma thuật, AI sẽ thực hiện tất cả mong muốn của bạn, và không có giới hạn, và sẽ không có giới hạn chỉ có 3 điều ước, có thể tốt hoặc xấu, và thách thức trong tương lai sẽ là làm thế nào chúng ta tìm thấy ý nghĩa của cuộc sống. Musk nói.

Musk đã nhiều lần cảnh báo rằng AI nguy hiểm hơn vũ khí hạt nhân (bom hạt nhân).

Ultraman cũng đã nhiều lần nói rằng chính phủ kiểm soát nó. Trong vòng 10 năm, thế giới có thể có một hệ thống AI (AI) mạnh mẽ, nhưng bây giờ, nhân loại cần phải sẵn sàng cho điều này.

Chính phủ Hoa Kỳ cũng đã bắt đầu điều chỉnh sự an toàn của AI. Ngày 30/10, Tổng thống Mỹ Joe Biden đã ký sắc lệnh hành pháp mới về AI, thực hiện hành động toàn diện nhất từ trước đến nay theo hướng tiêu chuẩn an toàn AI, bảo vệ quyền riêng tư của người Mỹ, thúc đẩy sự công bằng và quyền công dân, bảo vệ lợi ích của người tiêu dùng và người lao động, thúc đẩy đổi mới và cạnh tranh, đồng thời thúc đẩy sự lãnh đạo của Mỹ ở nước ngoài, trong số những thứ khác, để quản lý các rủi ro tiềm ẩn của AI.

Điều đáng nói là trong sắc lệnh hành pháp mới, sự hỗ trợ cho các gã khổng lồ AI đã được tăng cường, chẳng hạn như hỗ trợ nghiên cứu AI thông qua tài trợ nghiên cứu và các phương tiện khác, thu hút nhân tài nước ngoài, v.v.

Một hòn đá khuấy động ngàn con sóng.

Sau đó, các chuyên gia học thuật AI như "Turing Three" đã có một cuộc thảo luận sôi nổi về giám sát AI, chủ yếu được chia thành hai phe: những người đại diện bởi Yang Likun và Ng Enda tin rằng chiếc xe muốn phanh trước khi nó được chế tạo, và AI chưa đến giai đoạn giám sát; Tuy nhiên, những người bao gồm Elon Musk, Altman và Geoffrey Hinton, "cha đẻ của học sâu", tin rằng AI vẫn rất nguy hiểm.

Trong số đó, Yang Likun thẳng thắn nói rằng nếu Mỹ tiếp tục hỗ trợ nghiên cứu AI của những gã khổng lồ công nghệ, cuối cùng có thể dẫn đến việc chỉ có một vài gã khổng lồ công nghệ lớn có thể kiểm soát AI, điều này chắc chắn sẽ dẫn đến rủi ro và thảm họa rất lớn.

"Giống như nhiều người, tôi là người ủng hộ lớn cho một nền tảng AI mở. Nhưng tôi cũng tin rằng tương lai của AI là sự kết hợp giữa sự sáng tạo, dân chủ, sức mạnh thị trường và quy định của con người. Yang Likun viết trên nền tảng X.

Andrew Ng, người sáng lập Google Brain và là giáo sư tại Đại học Stanford, cũng ủng hộ Yang. Ông nói rằng đó là một "âm mưu" để áp đặt quy định mạnh mẽ về sự phát triển của công nghệ AI.

"Nó sẽ phá hủy sự đổi mới", Ng lưu ý, "và chắc chắn có một số công ty công nghệ lớn miễn cưỡng cạnh tranh với AI nguồn mở, vì vậy họ đang tạo ra nỗi sợ hãi rằng AI sẽ dẫn đến sự tuyệt chủng của con người." Đây luôn là một vũ khí lập pháp được các nhà vận động hành lang tìm kiếm, nhưng nó rất có hại cho cộng đồng nguồn mở. Với định hướng quy định ở nhiều quốc gia, tôi nghĩ không có quy định nào tốt hơn hiện nay. "

Nhưng đồng thời, vào ngày 25 tháng 10, người chiến thắng giải thưởng Turing Yoshua Bengio, "cha đẻ của học sâu" Geoffrey Hinton, Andrew Yao, Zhang Yaqin và các chuyên gia ngành công nghiệp AI khác cũng đã ký một bức thư chung, tiếp tục kêu gọi tăng cường giám sát sự phát triển của công nghệ AI và tin rằng các biện pháp quản trị khẩn cấp nên được thực hiện trước khi các hệ thống này được phát triển. và một sự thay đổi lớn đối với các hoạt động an toàn và đạo đức trong R&D AI.

Ngày nay, cuộc chiến khốc liệt giữa các ông lớn học thuật về quy định an toàn AI vẫn tiếp tục. AI hiện đang đi sâu vào mọi thứ, từ công cụ tìm kiếm đến mạng xã hội đến tài chính, vì vậy các chuyên gia đã nêu lên những lo ngại nghiêm trọng về những thách thức của cuộc chạy đua vũ trang AI này, rủi ro bảo mật và giả mạo sâu sắc.

Yoshua Bengio、Geoffrey Hinton、Yann LeCun

Và nhiều cư dân mạng đang lo lắng về việc liệu mối quan hệ giữa các ông lớn có bị ảnh hưởng bởi tranh cãi hay không. Yang Likun đã đăng một bức ảnh với Yoshua Bengio và Hinton một thời gian trước, dường như đã trả lời tốt cho câu hỏi này.

Ngày 3/11, chính phủ Mỹ cho biết đã thành lập Viện An ninh AI, với hy vọng phát triển các tiêu chuẩn và quy tắc để điều chỉnh tương lai của AI thông qua năng lực lập pháp của Bộ Thương mại Mỹ và các cơ quan khác.

**Tăng tốc quy định trong 10 năm tới con người có thể hoàn toàn bước vào kỷ nguyên của trí thông minh **

Vào ngày 1 tháng 11, tại Hội nghị thượng đỉnh an ninh AI đầu tiên được tổ chức tại Bletchley Park, London, Vương quốc Anh, "Tuyên bố Bletchley" đã được phát hành, tuyên bố rằng AI mang lại những cơ hội lớn và có tiềm năng tăng cường phúc lợi, hòa bình và thịnh vượng của con người, nhưng đồng thời, AI cũng đặt ra những rủi ro đáng kể, cần được giải quyết thông qua hợp tác quốc tế.

Tại cuộc họp, hơn 25 quốc gia và khu vực, bao gồm Hoa Kỳ, Trung Quốc và Liên minh châu Âu, đã ký tuyên bố. Thủ tướng Anh Rishi Sunak cho biết: "Đây là một thành tựu mang tính bước ngoặt khi các cường quốc AI mạnh nhất thế giới nhận ra sự cấp thiết của việc 'hiểu những rủi ro của AI' để giúp đảm bảo tương lai lâu dài của thế hệ tiếp theo của chúng ta". Là nhà lãnh đạo, chúng tôi có trách nhiệm hành động và thực hiện các bước để bảo vệ mọi người, và đó chính xác là những gì chúng tôi đang làm. "

Tuyên bố nói rằng AI đặt ra những rủi ro đáng kể, bao gồm cả trong lĩnh vực cuộc sống hàng ngày và "tất cả các vấn đề đều có tầm quan trọng tối cao và chúng tôi nhận ra sự cần thiết và cấp bách để giải quyết chúng". "

"Để đạt được điều này, chúng tôi khẳng định rằng AI nên được thiết kế, phát triển, triển khai và sử dụng một cách an toàn, lấy con người làm trung tâm, đáng tin cậy và có trách nhiệm vì lợi ích của tất cả mọi người." Nhiều rủi ro do AI gây ra có tính chất quốc tế và được giải quyết tốt nhất thông qua hợp tác quốc tế - xác định rủi ro bảo mật AI là mối quan tâm chung và hỗ trợ một mạng lưới nghiên cứu khoa học bảo mật AI tiên tiến toàn diện quốc tế, tuyên bố cho biết.

Ngày 3/11, tại "Diễn đàn biên giới trí tuệ nhân tạo thế hệ mới" do Đại học Bắc Kinh tổ chức, Huang Tiejun, giáo sư tại Trường Khoa học Máy tính thuộc Đại học Bắc Kinh và là hiệu trưởng Học viện Trí tuệ nhân tạo Bắc Kinh, cho biết tranh cãi hiện nay là sự hiểu biết cơ bản của mọi người về AI là khác nhau và nhiều người tham gia tư duy khoa học không tin rằng trí tuệ nhân tạo nói chung (AGI) sẽ được hiện thực hóa, trong khi một tư duy kỹ thuật khác, bao gồm Yang Likun, tin rằng phát triển AI là khả thi.

"Đây là hai cách suy nghĩ hoàn toàn khác nhau, và không ai có thể thuyết phục được ai. Do đó, đằng sau những tranh cãi, mọi người nhìn vấn đề này từ một quan điểm hoàn toàn khác và một cách suy nghĩ khác nhau. Huang Tiejun nói trong bài phát biểu của mình.

Đối với sự phát triển trong tương lai của công nghệ mô hình lớn AI, Huang Tiejun đã đưa ra kỳ vọng trong 3 năm, 10 năm và 20 năm.

  • Trong ba năm tới, mô hình lớn sẽ được mở rộng sang trí thông minh nói chung như thị giác, thính giác, trí thông minh thể hiện và hành động, và quy mô sẽ ngày càng lớn hơn, trở thành "bộ não" của trí thông minh thể hiện; Ngôn ngữ thông thường được nâng cấp lên ngôn ngữ khoa học và trí tuệ nhân tạo giải quyết các vấn đề khoa học lớn.
  • Trong 10 năm tới, nhân loại sẽ bước vào kỷ nguyên trí tuệ (khả năng) một cách toàn diện, giống như cuộc cách mạng công nghiệp để giải phóng sức mạnh thể chất, giống như cuộc cách mạng quyền lực để giải quyết sự lưu thông năng lượng, và xây dựng khoa học công nghệ, kinh tế và sinh thái xã hội với trí tuệ làm cốt lõi sẽ được hoàn thành.
  • Trong 20 năm tới: mô hình lớn hiện tại là trí tuệ tĩnh dựa trên dữ liệu, tương lai là trí thông minh động được điều khiển bởi môi trường không gian-thời gian và sóng mang thông minh được nâng cấp lên mạng lưới thần kinh tăng đột biến giống như não; Vào năm 2045, AGI vật lý bắt chước cấu trúc não, giống như não chức năng và siêu não hiệu suất, AGI vật lý sẽ đến.
  • Ngoài ra, an ninh Al ít nhất phải được coi trọng như nhau, nếu không nhân loại sẽ gặp rủi ro lớn.

Theo quan điểm của Huang Tiejun, trong 10 năm tới, toàn bộ nền kinh tế, xã hội, khoa học và công nghệ của thế giới có thể trải qua một sự thay đổi lớn, trí thông minh sẽ trở thành yếu tố cơ bản của hoạt động xã hội, giống như điện ngày nay ở khắp mọi nơi, thế giới sẽ được hình thành. Vào năm 2045, theo công nghệ AI, con người có thể đạt được dữ liệu thông minh theo thời gian thực và nó sẽ được nâng cấp lặp đi lặp lại, bộ não và việc ra quyết định tiếp theo cũng sẽ thay đổi.

"Tôi nghĩ rằng trước năm 2045, tất cả những khả năng truyền cảm hứng và đổi mới như của chúng ta sẽ xuất hiện trên một sinh vật phi sinh vật, nhưng nếu có, nó sẽ là một rủi ro rất lớn, liệu con người chúng ta có nên thực hiện lựa chọn này hay không, hoặc liệu nó có thể chậm hơn một chút hay không, điều này cần được thảo luận rất nhiều." Huang Tiejun nói vào cuối bài phát biểu của mình.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)