馬庫斯銳評GPT-5! 急需新範式,OpenAI並無優勢

原文來源:新智元

圖片來源:由無界AI生成

有關GPT-5的消息最近又火起來了。

從最一開始的爆料,說OpenAI正在秘密訓練GPT-5,到後來Sam Altman澄清; 再到後來說需要多少張H100 GPU來訓練GPT-5,DeepMind的CEO Suleyman採訪「實錘」OpenAI正在秘密訓練GPT-5。

然後又是新一輪的猜測。

中間還穿插了Altman的大胆預測,什麼GPT-10會在2030年前出現,超過全人類的智慧總和,是真正的AGI雲雲。

再到最近OpenAI名叫Gobi的多模態模型,強勢叫板谷歌的Gimini模型,兩家巨頭的競爭一觸即發。

一時間,有關大語言模型的最新進展成了圈內最熱門的話題。

套用一句古詩詞,「猶抱琵琶半遮面」來形容,還挺貼切的。 就是不知道,什麼時候能真的「千呼萬喚始出來」。

時間線回顧

今天要聊的內容和GPT-5直接相關,是咱們的老朋友Gary Marcus的一篇分析。

核心觀點就一句話:GPT-4到5,不是光擴大模型規模那麼簡單,是整個AI範式的變化。 而從這一點來看,開發出GPT-4的OpenAI並不一定是先到達5的那一家公司。

換句話說,當範式需要變革的時候,之前的積累可遷移性不大。

不過在走進Marcus的觀點之前,我們還是簡要複習一下最近有關傳說中的GPT-5都發生什麼了,輿論場都說了些什麼。

一開始是OpenAI的聯合創始人Karpathy發推表示,H100是巨頭們追捧的熱門,大家都關心這東西誰有,有多少。

然後就是一大波討論,各家公司需要多少張H100 GPU來訓練。

大概就是這樣。

GPT-4可能在大約10000-25000張A100上進行了訓練

Meta大約21000 A100

Tesla大約7000 A100

Stability AI大約5000 A100

Falcon-40B在384個A100上進行了訓練

有關這個,馬斯克也參與了討論,根據馬斯克的說法,GPT-5的訓練可能需要30000到50000個H100。

此前,摩根士丹利也說過類似的預測,不過總體數量要比馬斯克說的少一點,大概是25000個GPU。

當然這波把GPT-5放到檯面上去聊,肯定少不了Sam Altman出來闢謠,表明OpenAI沒在訓練GPT-5.

有大膽的網友猜測,OpenAI之所以否認,很有可能只是把下一代模型的名字給改了,並不叫GPT-5而已。

反正根據Sam Altman的說法,正是因為GPU的數量不足,才讓很多計劃被耽擱了。 甚至還表示,不希望太多人使用GPT-4。

整個業內對GPU的渴求都是如此。 據統計,所有科技巨頭所需的GPU加起來,得有個43萬張還要多。 這可是一筆天文數位的money,得差不多150億美元。

但通過GPU的用量來倒推GPT-5有點太迂回了,於是DeepMind的創始人Suleyman直接在採訪中「錘」了,表示OpenAI就是在秘密訓練GPT-5,別藏了。

當然在完整的訪談中,Suleyman還聊了不少業內大八卦,比方說在和OpenAI的競爭中,DeepMind為啥就落後了,明明時間上也沒滯後太多。

還有不少內部消息,比如當時谷歌收購的時候發生了什麼。 但這些跟GPT-5怎麼著關係就不大了,有興趣的朋友可以去自行瞭解。

總而言之,這波是業內大佬下場聊GPT-5的最新進展,讓大夥不禁疑雲陡起。

在這之後,Sam Altman在一場一對一連線中又表示,「我覺得2030年之前,AGI要出現,叫GPT-10,超過全人類的智慧總和。」

一方面大胆預測,一方面否認在訓練GPT-5,這讓別人很難真正知道OpenAI在做些什麼。

在這場連線中,Altman設想了很多屬於未來的圖景。 比如他自己怎麼理解AGI,什麼時候會出現AGI,真出現AGI了OpenAI會怎麼辦,全人類又該怎麼辦。

不過就實際進展來說,Altman是這麼規劃的,「我和公司中的員工說,我們的目標就是每12個月能讓我們的原型產品性能提升10%。」

「如果把這個目標設定到20%可能就會有些過高了。」

這算是個具體安排。 但是10%、20%和GPT-5之間的聯繫又在哪,也沒說得很清楚。

最有含金量的還是下面這個——OpenAI的Gobi多模態模型。

重點在於谷歌和OpenAI之間的白熱化競爭,到了哪個階段。

說Gobi之前,先得說說GPT-vision。 這一代模型就很厲害了。 拍個草圖照片,直接發給GPT,網站分分鐘給你做出來。

寫代碼那更不用說了。

而GPT-vision完了,OpenAI才有可能會推出更強大的多模態大模型,代號為Gobi。

跟GPT-4不同,Gobi從一開始就是按多模態模型構建的。

這也讓圍觀群眾的興趣一下被勾起來了——Gobi就是傳說中的GPT-5嗎?

當然現在我們還不知道Gobi訓練到哪一步了,也沒有確切消息。

而Suleyman還是堅定地認為,Sam Altman最近說過他們沒有訓練GPT-5,可能沒有說實話。

Marcus觀點

開宗明義,Marcus首先表示,很有可能,在科技史上,沒有任何一款預發佈的產品(iPhone可能是個例外)比 GPT-5被寄予了更多的期望。

這不僅僅是因為消費者對它的熱捧,也不僅僅是因為一大批企業正計劃著圍繞它白手起家,甚至就連有些外交政策也是圍繞GPT-5制定的。

此外,GPT-5的問世也可能加劇剛剛進一步升級的晶元戰爭。

Marcus表示,還有人專門針對 GPT-5 的預期規模模型,要求其暫停生產。

當然也是有不少人非常樂觀的,有一些人想像,GPT-5可能會消除,或者至少是極大地消除人們對現有模型的許多擔憂,比如它們的不可靠、它們的偏見傾向以及它們傾訴權威性廢話的傾向。

但Marcus認為,自己從來都不清楚,僅僅建立一個更大的模型是否就能真正解決這些問題。

今天,有國外媒體爆料稱,OpenAI的另一個專案Arrakis,旨在製造更小、更高效的模型,但由於沒有達到預期目標而被高層取消。

Marcus表示,我們幾乎所有人都認為,GPT-4之後會儘快推出GPT-5,而通常想像中的GPT-5要比GPT-4強大得多,所以Sam當初否認的時候讓大夥大吃一驚。

人們對此有很多猜測,比方說上面提到的GPU的問題,OpenAI手上可能沒有足夠的現金來訓練這些模型(這些模型的訓練成本是出了名的高)。

但話又說回來了,OpenAI的資金充裕程度幾乎不亞於任何一家初創公司。 對於一家剛剛融資100億美元的公司來說,即使進行5億美元的訓練也不是不可能。

另一種說法是,OpenAI 意識到,無論是訓練模型還是運行模型,成本都將非常高昂,而且他們不確定能否在這些成本下盈利。

這麼說好像有點道理。

第三種說法,也是Marcus的看法是,在Altman上半年5月份演講的時候,OpenAI就已經進行過一些概念驗證方面的測試了,但他們對得到的結果並不滿意。

最後他們的結論可能是這樣:如果GPT-5只是GPT-4的放大版而已的話,那麼它將無法滿足預期,和預設的目標差的還遠。

如果結果只會令人失望甚至像個笑話一樣,那麼訓練GPT-5就不值得花費數億美元。

事實上,LeCun也是這麼個思路。

GPT從4到5,不僅僅是4plus那麼簡單。 4到5應該是劃時代的那種。

這裡需要的就是全新的範式,而不是單純擴大模型的規模。

所以說,就範式上的變革來講,當然還是越有錢的公司越有可能實現這個目標。 但區別在於,不一定是OpenAI了。 因為范式的變革是全新的賽道,過往的經驗或者積累並不一定能派上多少用場。

同樣,從經濟的角度來講,如果真如Marcus所言,那麼GPT-5的開發就相當於被無限期的推遲了。 誰也不知道新技術何時到來。

就好像,現在新能源汽車普遍續航幾百公里,想要續航上千,就需要全新的電池技術。 而新技術由誰來突破,往往除了經驗、資金外,可能還需要那麼一點點運氣,和機緣。

但不管怎麼說,如果Marcus想的是對的,那麼未來有關GPT-5的各種商業價值想必會縮水不少。

參考資料:

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)