穩健,是 Gate 持續增長的核心動力。
真正的成長,不是順風順水,而是在市場低迷時依然堅定前行。我們或許能預判牛熊市的大致節奏,但絕無法精準預測它們何時到來。特別是在熊市週期,才真正考驗一家交易所的實力。
Gate 今天發布了2025年第二季度的報告。作爲內部人,看到這些數據我也挺驚喜的——用戶規模突破3000萬,現貨交易量逆勢環比增長14%,成爲前十交易所中唯一實現雙位數增長的平台,並且登頂全球第二大交易所;合約交易量屢創新高,全球化戰略穩步推進。
更重要的是,穩健並不等於守成,而是在面臨嚴峻市場的同時,還能持續創造新的增長空間。
歡迎閱讀完整報告:https://www.gate.com/zh/announcements/article/46117
GPT-5出世,需5萬張H100!全球H100總需求43萬張, 英偉達GPU陷短缺風暴
原文來源:新智元
「誰將獲得多少H100,何時獲得H100,都是矽谷中最熱門的話題。」
OpenAI聯合創始人兼職科學家Andrej Karpathy近日發文,闡述了自己對英偉達GPU短缺的看法。
GPT-4可能在大約10000-25000張A100上進行了訓練
Meta大約21000 A100
Tesla大約7000 A100
Stability AI大約5000 A100
Falcon-40B在384個A100上進行了訓練
– Inflection使用了3500和H100,來訓練與GPT-3.5能力相當的模型
另外,根據馬斯克的說法,GPT-5可能需要30000-50000個H100。
此前,摩根士丹利曾表示GPT-5使用25000個GPU,自2月以來已經開始訓練,不過Sam Altman之後澄清了GPT-5尚未進行訓。
不過,Altman此前表示,
文章推測,小型和大型雲提供商的大規模H100集群容量即將耗盡,H100的需求趨勢至少會持續到2024年底。
各大公司GPU需求:約43萬張H100
當前,生成式AI爆發仍舊沒有放緩,對算力提出了更高的要求。
一些初創公司都在使用英偉達昂貴、且性能極高的H100來訓練模型。
馬斯克說,GPU在這一點上,比藥物更難獲得。
Sam Altman說,OpenAI受到GPU的限制,這推遲了他們的短期計劃(微調、專用容量、32k上下文窗口、多模態)。
Karpathy 發表此番言論之際,大型科技公司的年度報告,甚至都在討論與GPU訪問相關的問題。
上週,微軟發布了年度報告,並向投資者強調,GPU是其云業務快速增長的「關鍵原材料」。如果無法獲得所需的基礎設施,可能會出現數據中心中斷的風險因素。
Lambda和CoreWeave以及其他私有云可能總共需要100k。他寫道,Anthropic、Helsing、Mistral和Character 可能各需要10k。
作者表示,這些完全是粗略估計和猜測,其中有些是重複計算雲和從雲租用設備的最終客戶。
整體算來,全球公司需要約432000張H100。按每個H100約35k美元來計算,GPU總需求耗資150億美元。
這其中還不包括國內,大量需要像H800的互聯網公司。
還有一些知名的金融公司,比如Jane Street、JP Morgan、Two Sigma等,每家都在進行部署,從數百張A/H100開始,擴展到數千張A/H100。
**H100為什麼成首選? **
H100比A100更受歡迎,成為首選,部分原因是緩存延遲更低和FP8計算。
因為它的效率高達3倍,但成本只有(1.5-2倍)。考慮到整體系統成本,H100的性能要高得多。
從技術細節來說,比起A100,H100在16位推理速度大約快3.5倍,16位訓練速度大約快2.3倍。
大多數公司購買H100,並將其用於訓練和推理,而A100主要用於推理。
但是,由於成本、容量、使用新硬件和設置新硬件的風險,以及現有的軟件已經針對A100進行了優化,有些公司會猶豫是否要切換。
GPU 並不短缺,而是供應鏈問題
英偉達的一位高管表示,問題不在於GPU 短缺,而在於這些GPU 如何進入市場。
英偉達正在正在開足馬力生產GPU,但是這位高管稱,GPU的產能最主要受到的是供應鏈的限制。
芯片本身可能產能充足,但是其他的組件的產能不足會嚴重限制GPU的產能。
這些組件的生產要依賴整個世界範圍內的其他供應商。
不過需求是可以預測的,所以現在問題正在逐漸得到解決。
GPU芯片的產能情況
首先,英偉達只與台積電合作生產H100。英偉達所有的5nmGPU都只與台積電合作。
未來可能會與英特爾和三星合作,但是短期內不可能,這就使得H100的生產受到了限制。
根據爆料者稱,台積電有4個生產節點為5nm芯片提供產能:N5,N5P,N4,N5P
而H100只在N5或者是N5P的中的4N節點上生產,是一個5nm的增強型節點。
而英偉達需要和蘋果,高通和AMD共享這個節點的產能。
而台積電晶圓廠需要提前12個月就對各個客戶的產能搭配做出規劃。
如果之前英偉達和台積電低估了H100的需求,那麼現在產能就會受到限制。
而爆料者稱,H100到從生產到出廠大約需要半年的時間。
而且爆料者還援引某位退休的半導體行業專業人士的說法,晶圓廠並不是台積電的生產瓶頸,CoWoS(3D堆疊)封裝才是台積電的產能大門。
H100內存產能
而對於H100上的另一個重要組件,H100內存,也可能存在產能不足的問題。
與GPU以一種特殊方式集成的HBM(High Bandwidth Memory)是保障GPU性能的關鍵組件。
主要的問題是HBM。製造它是一場噩夢。由於HBM 很難生產,供應也非常有限。生產和設計都必須按照它的節奏來。
HBM3內存,英偉達幾乎都是採用SK Hynix的產品,可能會有一部分三星的產品,應該沒有鎂光的產品。
英偉達希望SK Hynix能提高產能,他們也在這麼做。但是三星和鎂光的產能都很有限。
而且製造GPU還會用到包括稀土元素在內的許多其他材料和工藝,也會成為限制GPU產能的可能因素。
GPU芯片未來的情況會怎麼發展
英偉達的說法
英偉達只是透露,下半年他們能夠供應更多的GPU,但是沒有提供任何定量的信息。
接下來會發生什麼?
**H100的下一代產品何時會出現? **
根據英偉達之前的線路圖,H100的下一代產品要在2024年末到2025年初才會宣布。
在那個時間點之前,H100都會是英偉達的旗艦產品。
不過英偉達在此期間內會推出120GB水冷版的H100。
而根據爆料者採訪到的業內人士稱,到2023年底的H100都已經賣完了! !
**如何獲得H100的算力? **
就像前邊英偉達的高管提到的,H100的GPU所提供的算力,最終要通過各個雲計算提供商整合到產業鏈中去,所以H100的短缺,一方面是GPU生成造成的。
另一個方面,是算力雲提供商怎麼能有效地從英偉達獲得H100,並通過提供雲算力最終觸及需要的客戶。
這個過程簡單來說是:
算力雲提供商向OEM採購H100芯片,再搭建算力雲服務出售給各個AI企業,使得最終的用戶能夠獲得H100的算力。
而這個過程中同樣存在各種因素,造成了目前H100算力的短缺,而爆料的文章也提供了很多行業內部的信息供大家參考。
**H100的闆卡找誰買? **
戴爾,聯想,HPE,Supermicro和廣達等OEM商家都會銷售H100和HGX H100。
像CoreWeave和Lambda這樣的GPU雲提供商從OEM廠家處購買,然後租給初創公司。
超大規模的企業(Azure、GCP、AWS、Oracle)會更直接與英偉達合作,但也會向OEM處購買。這和遊戲玩家買顯卡的渠道似乎也差不多。但即使是購買DGX,用戶也需要通過OEM購買,不能直接向英偉達下訂單。
交貨時間
8-GPU HGX 服務器的交付時間很糟糕,4-GPU HGX 服務器的交付時間就還好。
但是每個客戶都想要8-GPU 服務器!
初創公司是否從原始設備製造商和經銷商處購買產品?
初創公司如果要獲得H100的算力,最終不是自己買了H100插到自己的GPU集群中去。
他們通常會向Oracle等大型雲租用算力,或者向Lambda和CoreWeave等私有云租用,或者向與OEM和數據中心合作的提供商(例如FluidStack)租用。
如果想要自己構建數據中心,需要考慮的是構建數據中心的時間、是否有硬件方面的人員和經驗以及資本支出是否能夠承擔。
從租賃到自建雲服務的順序大概是:按需租雲服務(純租賃雲服務)、預定雲服務、託管雲服務(購買服務器,與提供商合作託管和管理服務器)、自託管(自己購買和託管服務器))。
大部分需要H100算力的初創公司都會選擇預定雲服務或者是託管雲服務。
大型雲計算平台之間的比較
而對於很多初創公司而言,大型雲計算公司提供的雲服務,才是他們獲得H100的最終來源。
雲平台的選擇也最終決定了他們能否獲得穩定的H100算力。
總體的觀點是:Oracle 不如三大雲可靠。但是Oracle會提供更多的技術支持幫助。
其他幾家大型雲計算公司的主要差異在於:
網絡:儘管大多數尋求大型A100/H100 集群的初創公司都在尋求InfiniBand,AWS 和Google Cloud 採用InfiniBand的速度較慢,因為它們用了自己的方法來提供服務。
可用性:微軟Azure的H100大部分都是專供OpenAI的。谷歌獲取H100比較困難。
因為英偉達似乎傾向於為那些沒有計劃開發和他競爭的機器學習芯片的雲提供更多的H100配額。 (這都是猜測,不是確鑿的事實。)
而除了微軟外的三大雲公司都在開發機器學習芯片,來自AWS和谷歌的英偉達替代產品已經上市了,佔據了一部分市場份額。
就與英偉達的關係而言,可能是這樣的:Oracle和Azure>GCP和AWS。但這只是猜測。
較小的雲算力提供商價格會更便宜,但在某些情況下,一些雲計算提供商會用算力去換股權。
英偉達如何分配H100
英偉達會為每個客戶提供了H100的配額。
但如果Azure說“嘿,我們希望獲得10,000個H100,全部給Inflection使用”會與Azure說“嘿,我們希望獲得10,000個H100用於Azure雲”得到不同的配額。
英偉達關心最終客戶是誰,因此如果英偉達如果對最終的使用客戶感興趣的話,雲計算提供平台就會得到更多的H100。
英偉達希望盡可能地了解最終客戶是誰,他們更喜歡擁有好品牌的客戶或擁有強大血統的初創公司。
結束語
現在對於GPU的渴求既有泡沫和炒作的成分,但是也確實是客觀存在的。
OpenAI 等一些公司推出了ChatGPT等產品,這些產品收到了市場的追捧,但他們依然無法獲得足夠的GPU。
其他公司正在購買並且囤積GPU,以便將來能夠使用,或者用來訓練一些市場可能根本用不到的大語言模型。這就產生了GPU短缺的泡沫。
但無論你怎麼看,英偉達就是堡壘裡的綠色國王。