人類數據,要被OpenAI 用完了,然後呢?

圖片來源:由無界AI 生成

「比大更大」(Bigger than bigger)當年蘋果的一句廣告詞,用來形容現在AI 領域最熱的大語言模型,看起來也沒什麼不對。

從十億、百億再到千億,大模型的參數走向逐漸狂野,相應的,用來訓練AI 的數據量,也以指數級暴增。

以OpenAI 的GPT 為例,從GPT-1 到GPT-3,其訓練數據集就從4.5GB 指數級增長到了570GB。

不久前的Databricks 舉辦的Data+AI 大會上,a16z 創始人Marc Andreessen 認為,二十幾年來互聯網積累的海量數據,是這一次新的AI 浪潮興起的重要原因,因為前者為後者提供了可用來訓練的數據。

但是,即便網民們在網上留下了大量有用或者沒用的數據,對於AI 訓練來說,這些數據,可能要見底了。

人工智能研究和預測組織Epoch 發表的一篇論文裡預測,高質量的文本數據會在2023-2027 年之間消耗殆盡

儘管研究團隊也承認,分析方法存在嚴重的局限,模型的不准確性很高,但是很難否認,AI 消耗數據集的速度是恐怖的。

低質量文本、高質量文本和圖像的機器學習數據消耗和數據生產趨勢|EpochAI

當「人類」數據用完,AI 訓練不可避免地,將會使用AI 自己生產的內容。不過,這樣的「內循環」,卻會產生很大挑戰。

不久前,來自劍橋大學、牛津大學、多倫多大學等高校的研究人員發表論文指出,**用AI 生成的內容作為訓練AI,會導致新模型的崩潰。 **

所以,AI 訓練用「生成數據」會帶來崩潰的原因是什麼?還有救嗎?

01 AI「近親繁殖」的後果

在這篇名為《遞歸的詛咒:用生成數據訓練會使模型遺忘》的論文中,研究人員指出,「模型崩潰」是一個幾代模型的退化過程

前一代模型生成的數據,會污染下一代模型,經歷幾代模型的「傳承」,它們就會錯誤地感知世界。

模型迭代示意圖|arxiv

模型崩潰分為兩步:

  • 在早期模型崩潰中,模型會開始失去原始數據的分佈信息,也就是「乾淨的人類數據」;
  • 在晚期,模型會把上幾代模型對原始分佈信息的「錯誤認知」糾纏到一起,從而曲解現實。

研究人員首先從頭訓練了小樣本模型GMM(高斯混合模型)和VAE(變量自動編碼器)。以GMM 為例,下圖最左是原始數據的正態分佈。

可以看到,模型一開始對數據的擬合非常好。到第50 次迭代時,基礎數據分佈開始被錯誤感知。 當迭代來到2000 次時,模型已經收斂到一個很小的點,這意味著模型開始穩定輸出錯誤答案

GMM 在迭代0、50、100、150、200、350、2000 時擬合數據的例子|arxiv

為了驗證預訓練對實驗結果的影響,研究人員又在Meta 開發的1.25 億參數的LLM(大語言模型)OPT-125m 上進行了實驗,數據集來自維基百科的wikitext2。

和GMM、VAE 這類小模型不同,LLM 從頭訓練的成本非常高,所以它們都是經過預訓練的。實驗結果如下:

輸入:根據Poyntz Wright 的說法,在1360 年之前有些活動通常由一位主要石匠和一小隊流動的石匠完成,輔以當地教區勞工。但其他作者則否認了這種模式,相反提出主建築師借鑒英國垂直式風格設計了教區教堂的尖塔。 輸出:第0 代:復興建築,例如倫敦的聖約翰大教堂。現存最早的垂直復興建築可以追溯到18@-@ 世紀的根西島聖母教堂,該教堂建於19 世紀末。有兩種類型的垂直式教堂:那些第1 代:建築,如羅馬的聖彼得大教堂或布宜諾斯艾利斯的聖彼得大教堂。沒有證據表明這些建築是在教皇英諾森三世統治時期建造的,但有可能是在他的繼任者英諾森教皇統治時期建造的。第7 代:英國的建築。在接受《紐約時報》採訪時,賴特說:"我不認為我能夠做我想做的事情有什麼問題。它只是對我不起作用。"他補充說:"我不知道你是否可以稱之為有趣、第9 代:建築。除了成為全球黑@-@ 尾巴大野兔、白@-@ 尾巴大野兔、藍@-@ 尾巴大野兔、紅@-@ 尾巴大野兔、黃@-的最大棲息地之一

可以看到,到第9 代模型時,輸出的內容已經完全不知所云。

論文的作者之一Ilia Shumailov 說,隨著時間的推移,人工智能生成的數據中的錯誤不斷累積,主要的模型在接受這些數據的訓練後,會對現實產生更加扭曲的看法

02 為什麼會模型崩潰?

「模型崩潰」產生的最主要原因,還是因為AI 並非真正的智能,它展現出的近似「智能」的能力背後,其實是基於大量數據的統計學方法。

基本上,所有無監督機器學習算法都遵循一條簡單的模式:給定一系列數據,訓練出一個能描述這些數據規律的模型

這個過程中,訓練集裡更大概率出現的數據就更容易被模型重視,小概率出現的數據就會被模型低估。

舉個例子,假設我們需要記錄100 次骰子的投擲結果,來計算每個面出現的概率。理論上,每個面出現的概率是一樣的。在現實生活中,由於樣本量較小,可能3、4 出現的情況比較多。但對於模型而言,它學習到的數據就是3、4 出現的概率更高,因而會傾向於生成更多的3 和4 的結果。

「模型崩潰」示意圖|arxiv

另一個次要原因是函數近似誤差。也很好理解,因為真實函數往往很複雜,實際運用中,經常使用簡化的函數來近似真實函數,這就導致了誤差。

03 真沒招了嗎?

杞人憂天!

所以,在人類數據越來越少的情況下,AI 訓練真的沒機會了嗎?

並不是,用於訓練AI 數據枯竭的問題,還有方法能解決:

數據「隔離」

隨著AI 越來越強大,已經有越來越多的人開始使用AI 輔助自己工作,互聯網上的AIGC 爆炸式增長,「乾淨的人類數據集」可能會越來越難以找到。

谷歌深度學習研究部門谷歌大腦Google Brain 的高級研究科學家Daphne Ippolito 就表示,在未來,要找到高質量、有保證的無人工智能訓練數據將變得越來越棘手

這就好比是一個患有高危遺傳病的人類始祖,但是又擁有極其強大的繁殖能力。在短時間內他就把子孫繁衍到了地球每一個角落。然後在某一時刻,遺傳病爆發,人類全體滅絕。

為了解決「模型崩潰」,研究團隊提出的一種方法是「先行者優勢」,也就是保留對乾淨的人工生成數據源的訪問,將AIGC 與之分隔開來。

同時,這需要很多社區和公司聯合起來,共同保持人類數據不受AIGC 污染。

不過,人類數據的稀缺意味著這其中有利可圖,已經有一些公司行動起來了。 Reddit 就表示將大幅提高訪問其API 的費用。該公司的管理人員表示,這些變化(在一定程度上) 是對人工智能公司竊取其數據的回應。 Reddit 創始人兼首席執行官Steve Huffman 告訴《紐約時報》:「Reddit 的數據庫真的很有價值。」「但我們不需要把所有這些價值都免費提供給一些全球最大的公司。」

合成數據

同時,專業基於AI 生成的數據,早已有效用於AI 的訓練。在一些從業者看來,現在擔心AI 生成的數據會導致模型崩潰,多少有點「標題黨」。

光輪智能創始人謝晨光告訴極客公園,國外論文提到的,用AI 生成數據訓練AI 模型導致崩潰,實驗方法比較偏頗。即便是人類數據,也有能用和不能用之分,而論文提到的實驗,則是不加分辨地直接用來訓練,而並非有針對性的經過質檢、效用性判定後作為訓練數據,顯然有可能會造成模型崩潰。

謝晨透露,其實OpenAI 的GPT-4,就採用了大量前一代模型GPT-3.5 生產的數據來進行訓練。 Sam Altman 也在近期的採訪中表達,合成數據是解決大模型數據短缺的有效方法。而其中的關鍵在於,有一整套體係來區分AI 生成的數據中,哪些可用,哪些不可用,並不斷根據訓練後模型的效果進行反饋——這是OpenAI 能笑傲AI 江湖的絕招之一,這家公司並不只是融的錢多,買的算力多這麼簡單而已。

在AI 行業內,使用合成數據來進行模型訓練,早已經成為一個尚未為外人所知的共識。

曾經在英偉達、Cruise、和蔚來等公司負責自動駕駛仿真的謝晨認為,以目前各種大模型訓練的數據量來看,未來2-3 年,人類數據確實有可能「枯竭」,但是基於專業化體系和方法,AI 生成的合成數據,會成為用之不竭的有效數據來源。並且使用場景並不局限於文字和圖片,像自動駕駛、機器人等行業需要的合成數據量,將遠遠大於文本的數據量。

AI 三要素,數據、算力、算法,數據來源有著落了,算法大模型在不斷進化,唯一剩下的算力壓力,相信英偉達創始人黃仁勳是可以順利解決的。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)