圖靈獎得主吵起來了,LeCun:Bengio、Hinton 等的 AI 滅絕論是荒謬的

來源:機器之心

圖片來源:由無界 AI生成

LeCun 表示,絕大多數學術同行都非常支持開放式 AI 研發,但還是有反對者。

關於 AI 風險的問題,各路大佬們也是意見不統一。 有人帶頭簽署聯名信,呼籲 AI 實驗室應立即暫停研究,深度學習三巨頭 Geoffrey Hinton、Yoshua Bengio 等都支援這一觀點。

就在近幾日,Bengio、Hinton 等再發聯名信《在快速發展的時代管理人工智慧風險》,呼籲在開發 AI 系統之前,研究者應該採取緊急治理措施,將安全和道德實踐納入重點,呼籲各國政府應該採取行動,管理 AI 帶來的風險。

文中提到了一些緊急治理措施,例如,讓國家機構也參與進來,從而防止人們對 AI 的濫用。 為了實現有效的監管,政府需要全面瞭解人工智慧的發展。 監管機構應採取一系列措施,如模型註冊、對舉報人進行有效保護以及對模型開發和超級計算機使用的監控等。 監管機構還需要在部署之前訪問先進的人工智慧系統,以評估其危險功能。

不僅如此,時間再往前一點,今年五月,美國非營利組織人工智慧安全中心發表了一份聲明,警告人工智慧應被視為與流行病一樣存在滅絕人類的風險,支援該聲明的人同樣包括Hinton、Bengio等人。

今年 5 月,為了暢所欲言地談論人工智慧帶來的風險,Hinton 還辭去了在谷歌的工作。 在一次紐約時報的採訪中,他表示:「大多數人認為這(AI 危害)還很遙遠。 我過去也認為這還很遙遠,可能是 30 到 50 年甚至更長的時間。 但顯然,我現在不這麼想了。」

可以預見,在Hinton等 AI 大佬眼裡,管理 AI 帶來的風險是一項非常緊急的事情。

然而,作為深度學習三巨頭之一的 Yann LeCun,對 AI 發展持有非常樂觀的態度。 對於簽署關於 AI 風險的聯名信,他基本上都是持反對態度,認為人工智慧的發展遠未構成對人類的威脅。

剛剛, LeCun 在與 X 使用者的交流中,對網友的一些關於 AI 風險的問題給出了回答。

該網友是針對 LeCun 對文章《'This is his climate change': The experts helping Rishi Sunak seal his legacy》的看法進行提問的,文章認為 Hinton、Bengio 等人發表聯名信的行為使人們轉變了對 AI 的看法,從一開始將 AI 視為輔助助手,轉變為將 AI 視為潛在威脅。 文章接著表示,近幾個月來,觀察家們在英國發現了越來越多的關於 AI 會造成世界末日的氛圍。 今年三月,英國政府公佈了一份白皮書,承諾不會扼殺 AI 領域的創新。 然而僅僅兩個月後,英國就開始談論對 AI 設置護欄,並敦促美國接受其全球人工智慧規則計劃。

文章位址:

LeCun 對這篇文章的反應是這樣的,他不希望英國對 AI 存在宿命論風險的擔憂傳播給其他國家。

之後,就有了我們前面提到的 LeCun 與 X 使用者的交流,以下是 LeCun 全部的回答:

「Altman、Hassabis 以及 Amodei 正在進行大規模的企業遊說。 他們正嘗試對 AI 產業進行監管。 而你、Geoff,還有 Yoshua 正在給那些遊說禁止開放 AI 研究的人提供『彈藥』。

如果你們的恐懼宣傳活動取得成功,將不可避免地造成你我都認為是災難的結果:少數公司將控制 AI。

絕大多數學術同行都非常支持開放式 AI 研發。 很少有人相信你所鼓吹的末日場景。 你、Yoshua、Geoff 和 Stuart 是唯一的例外。

和許多人一樣,我非常支持開放式 AI 平臺,因為我相信各種力量的結合:人們的創造力、民主、市場力量和產品法規。 我也知道,生產安全且受我們控制的 AI 系統是可能的。 我已經為此提出了具體建議。 這一切都將促使人們做正確的事。

你寫得好像 AI 是憑空產生的,它是我們無法控制的自然現象。 但事實並非如此。 它之所以取得進步,是因為你我所認識的每一個人。 我們和他們都有能力打造『正確的事物』。 要求對研發(相對於產品部署)進行監管,其實暗含了這樣的假設:這些人和他們所服務的組織都是無能、魯莽、自我毀滅或者邪惡的。 但事實並非如此。

我已經提出了很多論據來證明你所害怕的末日場景是荒謬的。 在此我就不再贅述了。 但主要的一點是,如果強大的 AI 系統是由目標(包括護欄)驅動的,那麼它們就會是安全可控的,因為他們設定了這些護欄和目標。 (目前的自回歸 LLM 並不是由目標驅動的,所以我們不要從自回歸 LLM 的弱點來推斷)。

關於開源這件事,你的活動所產生的效果將與你所追求的完全相反。 在未來,AI 系統將成為人類所有知識和文化的寶庫,我們需要的是開源和免費的平臺,以便每個人都能為之做出貢獻。 開放是讓 AI 平臺反映人類全部知識和文化的唯一途徑。 這就要求對這些平臺的貢獻是眾包的,類似於維琪百科。 除非平臺是開放的,否則這樣做是行不通的。

如果開放原始程式碼的 AI 平臺被監管,那麼另一種情況將一定發生,那就是少數公司將控制 AI 平臺,進而控制人們的全部數字依賴。 這對民主意味著什麼? 這對文化多樣性意味著什麼? 這是讓我徹夜難眠的原因。」

在 LeCun 長推文的下方,也有許多人「聲援」他的觀點。

蒙特利爾大學計算機科學與運籌學系教授 Irina Rish,也是 Mila - Quebec AI 研究所的核心成員。 她表示或許支持開源 AI 的研究人員們不應該再沉默了,應該引領新興 AI 的發展。

亞馬遜創始人 Beff Jezos 也在評論區中表示,這樣的評論是重要的,也是人們所需要的。

網友表示,一開始,討論安全問題可以豐富大家對未來科技的想像,但是聳人聽聞的科幻小說不應當導致壟斷政策的出現。

博客主持人 Lex Fridman 對這場辯論有更多的期待。

關於 AI 風險的問題討論也將影響著 AI 的未來發展。 當一個觀點搶佔風頭時,人們會盲目跟從。 只有兩方能夠不斷地進行理性探討,才能夠真正地看清 AI 的「真面目」。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)