羊駝進化成鯨魚,Meta把對齊「自動化」,Humpback擊敗現有全部LLaMa模型

編輯:小舟、陳萍

**來源:**機器之心

這一年來,以ChatGPT 和GPT-4 為代表的大語言模型(LLM)發展迅速,緊隨其後,Meta 開源的LLaMa、Llama 2 系列模型在AI 界也引起的了不小的轟動。但隨之而來的是爭議不斷,有人認為LLM 存在一些不可控的風險,給人類生存構成一些潛在威脅。

為了應對這些挑戰,對LLM 對齊的研究變得越來越重要,有研究者提出指令跟隨(instruction following),但這種方法需要大量的人工註釋。然而,註釋如此高質量的指令跟隨數據集耗費巨大。

本文來自Meta AI 的研究者提出了一種可擴展的方法即指令回譯(instruction backtranslation),該方法通過自動註釋相應的指令來構建高質量的指令跟隨語言模型。

論文地址:

具體而言,該研究從一個語言模型開始,並作為種子模型,該模型在少量的種子數據以及web 語料庫上進行了微調。種子模型的作用是用來構建訓練樣本,然後這些樣本中的一些高質量樣本將會被篩選出來,接著,這些數據被用來微調一個更強大的模型。

經過兩輪迭代的數據集對LLaMa 進行微調,所產生的模型Humpback 在Alpaca 排行榜上優於其他現有的非蒸餾模型,如LIMA、Claude、Guanaco 等。

Humpback 原意為座頭鯨,又名駝背鯨,Meta 將模型命名為Humpback,也別有深意吧。

之所以稱為指令回譯,研究者表示這借鑒了機器翻譯中經典的反向翻譯方法,其中人類編寫的目標句子會自動用模型生成的另一種語言的源句子進行註釋。

圖靈獎得主Yann LeCun 高度概括了這項研究的方法,並稱讚Meta 這項工作為對齊研究做出重要貢獻:

還有網友對這項研究進行了很好的概括:數據質量對大模型來說確實很重要,研究過程中,他們使用不同級別的過濾數據,微調了一個模型,結果表明,只有最好的樣本才能得出比其他樣本表現更好的模型。

該論文提出了一種需要兩個步驟完成的新的數據增強範式。首先,必須擁有一組種子(指令、輸出)對和語料庫才能生成更多好的指令數據。

下圖比較了Humpback 與一些開源模型和專有模型。

下表4 表明,本文方法在65B 和33B 模型尺度上都是非蒸餾模型中表現最好的模型。

下面我們看看具體方法。

方法簡介

該研究提出了一種自訓練方法(self-training),該方法通常假定可以訪問基本語言模型、少量種子數據和未標記的樣本集(例如網絡語料庫)。未標記數據往往是一大堆形態各異的文檔,由人類編寫,其中包括人類感興趣的各種話題內容,但最重要的是沒有與指令進行配對。

這裡還有兩個關鍵的假設,第一個假設是這個非常大的文本集(未標記樣本集)存在一些子集,適合作為某些用戶指令的生成樣本。第二個假設是可以預測這些候選答案的指令,這些指令可以用於形成高質量樣本對,以訓練指令遵循模型。

如下圖1 所示,該研究提出指令回譯過程包含兩個核心步驟:

  • 自增強:為未標記的數據(即網絡語料庫)生成指令,以為指令調優產生訓練數據對(指令- 輸出)。
  • 自管理:自主選擇高質量樣本數據作為訓練數據,以微調基礎模型來遵循指令,這種方法是迭代完成的。

其中,自管理步驟採用的如下表1 所示:

實驗及結果

本文的數據集主要包括種子數據和增強數據,具體信息如表2 和圖2 所示:

圖3 表示儘管擴大了數據規模,但沒有自我管理(self-curation)的增強數據用來訓練模型並不能提高指令跟隨性能。

下圖比較了不同指令調優數據集的數據效率。

數據和模型的聯合擴展:該研究發現在7B 模型中觀察到的數據擴展趨勢同樣也適用於更大的模型。例如對65B 的種子模型增加高質量的增強數據會帶來進一步的改進。

常識推理:該研究在五個常識推理基准上進行了測試,SIQA 、PIQA、Arc-Easy、Arc-Challenge 和Openbook QA (OBQA) , 結果總結於表5 中。結果表明,與基礎模型相比,本文模型在社會推理等多個方面的表現有所提高。

MMLU:表6 總結了不同模型在MMLU(massive multitask language understanding)的結果。與基礎模型相比,本文微調模型提高了零樣本準確率,但在5 個樣本上下文示例中表現不佳。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)