📢 股票資產上鏈,全球首發盡在 Gate!
Gate 攜手 @xStocksFi 與 @BackedFi,正式上線全球首個股票衍生品市場,開啓鏈上股票交易新紀元!
支持$TSLA, $NVDA, $CRCL, $AAPL 等熱門股票:
💥 可加槓杆、做多做空
💰 全USDT計價,輕鬆管理風險收益
🔒 實物資產 100% 抵押
🔁 多鏈流轉自由無阻
🌐 RWA × Web3,全新交互方式
CeFi 與 TradFi 的邊界,已經徹底打破。
了解詳情:https://www.gate.com/announcements/article/45926
#xStocksOnGate#
開源且可商用,300 億參數的MPT-30B 大模型的成本僅為GPT-3 的零頭
AI 大模型開發公司MosaicML 近日發布了新的可商用的開源大語言模型MPT-30B,擁有300 億參數,其功能明顯比前一代MPT-7B 語言模型(70 億參數)更強大,並且性能優於GPT-3。
此外,他們還發布了兩個經過微調的模型:MPT-30B-Instruct 和MPT-30B-Chat,它們構建在MPT-30B 之上,分別擅長單輪指令跟踪和多輪對話。
MPT-30B 模型具有的特點:
該模型已擴展到NVIDIA H100 上的8k token 上下文窗口,使其成為第一個在H100 上訓練的LLM。
MPT-30B 強於GPT-3?
MPT-30B 是商業Apache 2.0 許可的開源基礎模型,強於原始的GPT-3,並且與LLaMa-30B 和Falcon-40B 等其他開源模型具有競爭力。
MosaicML 用2 個月的時間訓練了MPT-30B,使用英偉達的H100 GPU 集群進行訓練。
如下圖,MPT-30B 的訓練數據:
MPT-30B 訓練成本
MosaicML 公司的首席執行官兼聯合創始人Naveen Rao 表示,MPT-30B 的訓練成本為70 萬美元(約502.44 萬元人民幣),遠低於GPT-3 等同類產品所需的數千萬美元訓練成本。
訓練定制的MPT-30B 模型需要多少時間和金錢?讓我們從基本模型開始。
如果您不想從頭訓練,只想微調現有模型呢?
下圖詳細列出了每個1B token 微調MPT-30B 的時間和成本。借助MosaicML 基礎設施,您可以對MPT-30B 模型進行全面微調,而無需擔心系統內存限制,而且只需幾百美元!
參考資料: