📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
長文本資訊準確率超過ChatGPT,Meta 提出降低大模型幻覺新方法
來源:量子位元
大模型的幻覺問題,又有新的解決方法了!
Meta AI實驗室提出了一種「分而治之」的解決方案。
有了這個方案,Llama-65B輸出的資訊準確率提升了一倍,甚至超過了ChatGPT。
Meta這次提出的「驗證鏈」(CoVe),是與「思維鏈」(CoT)相似的一種鍊式方法。
差別在於,「step-by-step」的思考鏈更著重邏輯推理,而驗證鏈則更注重事實資訊。
有網友看了之後發現,這個驗證鏈很像是自己用ChatGPT寫程式碼時的科學方法:
拆解答案,分而治之
驗證鏈的核心思想,是把要驗證的一大段內容,拆解成一個個小的問題,具體流程是這樣的:
首先,模型會根據使用者提出的問題照常產生回應。
接著,根據產生的回應內容,針對其中的各項訊息,產生一系列的驗證問題。
然後讓模型自行回答其所提出的這些問題,並根據結果對初始答案進行調整,得到最終結果。
舉個簡單的例子,假如想詢問模型19世紀美墨戰爭的主要原因是什麼。
模型回答了事件發生的時間,以及在這之前都發生了什麼事。
於是,模型發現自己提到的一項內容時間相差太遠,調整後給出了最終的答案。
這四種模式越來越細化,準確率也越來越高。
那為什麼拆分提問就能提高模型的準確性呢?
首先是因為拆解後的問題比整體任務更容易,論述題變成了問答甚至選擇、判斷題,問題簡單了,準確率也就提升了。
此外,把問題分解可以讓模型真正重新思考,而不是反覆地重複錯誤答案。
那麼,驗證鏈方式的效果究竟如何呢?
資訊準確率超過ChatGPT
為了探究這個問題,研究人員用Llama進行了測試,測試任務一共有三項。
首先是資訊列舉,例如列舉出出生於某地、從事某行業的名人。
在這項任務中,研究人員一共測試了兩個資料集——簡單一些的Wikidata和從困難一些的Wiki-Category list(從維基百科中提取)。
接下來是「閉域問答」題,研究人員從MultiSpanQA資料集中抽取多個不連續資訊進行挖空提問。
例如「誰在哪一年創立了世界上第一家出版社」(答案是Johannes Gutenberg, 1450)。
結果,Cove也為Llama帶來了20%左右的準確度提升。
結果在Factor+Reviese模式下,準確率不僅比無驗證鏈模式大幅提高,還超過了ChatGPT。
論文地址: