穩健,是 Gate 持續增長的核心動力。
真正的成長,不是順風順水,而是在市場低迷時依然堅定前行。我們或許能預判牛熊市的大致節奏,但絕無法精準預測它們何時到來。特別是在熊市週期,才真正考驗一家交易所的實力。
Gate 今天發布了2025年第二季度的報告。作爲內部人,看到這些數據我也挺驚喜的——用戶規模突破3000萬,現貨交易量逆勢環比增長14%,成爲前十交易所中唯一實現雙位數增長的平台,並且登頂全球第二大交易所;合約交易量屢創新高,全球化戰略穩步推進。
更重要的是,穩健並不等於守成,而是在面臨嚴峻市場的同時,還能持續創造新的增長空間。
歡迎閱讀完整報告:https://www.gate.com/zh/announcements/article/46117
LLaMA都在用的開源數據集慘遭下架:包含近20萬本書,對標OpenAI數據集
原文來源:量子位
開源數據集因侵權問題,慘遭下架。
如LLaMA、GPT-J等,都用它訓練過。
如今,託管了它3年的網站,一夜之間刪除了所有相關內容。
這就是Books3,一個由將近20萬本圖書組成的數據集,大小將近37GB。
現在該平台上的Books3網頁鏈接已經“404”。
數據集的最初開發者無奈表示,Books3的下架是開源圈的一場悲劇。
**Books3是什麼? **
Books3在2020年發布,由AI開發者Shawn Presser上傳,被收錄在Eleuther AI的開源數據集Pile中。
它總計包含197000本書,包含來自盜版網站Bibliotik的所有書籍,意在對標OpenAI的數據集,但主打開源。
這也是Books3名字的來源之處——
GPT-3發布後,官方披露其訓練數據集中15%的內容來自兩個名為“Books1”、“Books2”的電子圖書語料庫,不過具體內容一直沒有被透露。
比如今年爆火的LLaMA、以及Eleuther AI的GPT-J等,都用上了Books3.
要知道,圖書數據一直是大模型預訓練中核心的語料素材,它能為模型輸出高質量長文本提供參考。
很多AI巨頭使用的圖書數據集都是不開源,甚至是非常神秘的。比如Books1/2,關於其來源、規模的了解,更多都是各界猜測。
為了更方便獲取,Books3被放到了The Eye上託管。這是一個可以存檔信息、提取公開數據的平台。
而這一次慘遭下架,說的也是這一平台。
丹麥反盜版組織權利聯盟向The Eye提出了下架請求,並且通過了。
不過好消息是,Books3並沒有完全消失,還是有其他辦法獲取的。
Wayback Machine上還有備份,或者可以從Torrent客戶端下載。
作者老哥在推特上給出了多個方法。
“沒有Books3就沒法做自己的ChatGPT”
實際上,對於這次下架風波,數據集作者老哥有很多話想說。
他談到,想要做出像ChatGPT一樣的模型,唯一的方法就是創建像Books3這樣的數據集。
在作者看來,ChatGPT就像是90年代的個人網站一樣,任何人都能做是很關鍵的。
不過由於Books3很大一部分數據來自於盜版網站,所以作者也表示,希望之後能有人做出來比Books3更好的數據集,不僅提升數據質量,而且尊重書籍版權。
一個多月以前,兩位全職作者以未經允許擅自將作品用來訓練ChatGPT,起訴了OpenAI。
而之所以會發生這種情況,很有可能是OpenAI的數據集Books2從影子圖書館(盜版網站)中獲取了大量數據。
所以也有聲音調侃說,AI不僅帶來了新的技術突破,也給反盜版組織帶來了新任務。
參考鏈接: [1] [2] [3] [4]