穩健,是 Gate 持續增長的核心動力。
真正的成長,不是順風順水,而是在市場低迷時依然堅定前行。我們或許能預判牛熊市的大致節奏,但絕無法精準預測它們何時到來。特別是在熊市週期,才真正考驗一家交易所的實力。
Gate 今天發布了2025年第二季度的報告。作爲內部人,看到這些數據我也挺驚喜的——用戶規模突破3000萬,現貨交易量逆勢環比增長14%,成爲前十交易所中唯一實現雙位數增長的平台,並且登頂全球第二大交易所;合約交易量屢創新高,全球化戰略穩步推進。
更重要的是,穩健並不等於守成,而是在面臨嚴峻市場的同時,還能持續創造新的增長空間。
歡迎閱讀完整報告:https://www.gate.com/zh/announcements/article/46117
人類數據告急,微軟OpenAI開始用AI餵AI,奧特曼放話:未來所有數據都將變成合成數據
原文來源:量子位
人類數據缺缺缺,AI被迫開始吃AI生產的數據了!
這是微軟、OpenAI等一眾AI前沿公司面臨的現狀。
他們從維基百科、電子書、新聞網站、博客、推特和Reddit等平台和論壇中搜羅了大量數據,然後現在……這些數據快被用完了。
據《金融時報》介紹,不少公司正把大模型生成的結果、也就是所謂的合成數據(Synthetic data),餵給參數量更小的大模型吃,發現效果還不錯。
對於使用合成數據,OpenAI的CEO Sam Altman不僅不介意,還放話“未來所有數據都將變成合成數據”。
估值20億美元的大模型初創公司Cohere同樣在用合成數據。公司CEO、經典大模型Transformer論文作者之一Aidan Gomez甚至認為:
所以,究竟哪些大模型已經在用合成數據了,這些合成數據又是從何而來?
大AI合成數據,小AI吃
這些所謂的合成數據,本質上是用當前表現較好的大模型生成的數據,經過人工調整後,再餵給稍微小一點的大模型。
例如Cohere公司就嘗試使用了兩個大模型進行“角色扮演”對話,並將它們生成的結果做成合成數據。
這兩個大模型分別扮演“數學老師”和“學生”,正在進行一堂虛擬的數學教學。同時,Cohere安排一個人類員工在旁邊監督對話生成。
儘管確實還需要人力,但這比聘請科學、醫學和商業方面的專家來撰寫文本要便宜得多。
那麼,什麼樣的大模型會用到這些合成數據呢?
微軟研究院最近有研究表明,合成數據可以用於訓練比GPT-4或PaLM-2稍微小一點的語言模型。
以用GPT-4生成的一個“四歲兒童小說”數據集TinyStories為例,這個數據集被證明雖然只包含4歲小孩能理解的單詞,但用於訓練一個大模型之後,同樣可以生成語法正確、閱讀體驗流暢的故事:
背後產業鏈已出現
目前,包括Scale AI、Gretel.ai等企業,已經開始給外界提供合成數據服務。
先是Scale AI,旗下就推出了一款合成數據產品Scale Synthetic,用於給企業提供合成數據服務。
而在之前一篇SemiAnalysis爆料GPT-4“大花邊”的新聞中,還提到GPT-4的數據集中,有數百萬行是來自Scale AI和內部的指令微調數據。
但並非所有人都接受合成數據這種“神奇操作”,目前各方的看法主要分成兩波。
一部分贊同使用合成數據。包括Cohere等AI公司在內,有不少搞大模型的企業仍然堅持這一做法,並認為它可能生成更好的AI,甚至從中誕生出“超級智能”。
另一部分則認為,合成數據終將讓AI“自食其果”。
例如一篇來自牛津大學、劍橋大學、帝國理工學院、多倫多大學、愛丁堡大學和Vector Institute多家機構的研究表明:
參考鏈接: [1] [2] [3] [4]