📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
GPT-4也難逃「反轉詛咒」!新研究發現:大模型有推理缺陷,知道“A是B”推不出“B是A”
原文來源:量子位元
大模型明知道“你媽是你媽”,卻答不出“你是你媽的兒子”? ?
這麼一項新研究,一發表就引燃了全場討論。
一個大語言模型在訓練時被餵進了“A是B”這種形式的數據,它並不會自動反推出“B是A”。大模型存在「反轉詛咒」現象。
甚至強如GPT-4,在反向問題實驗中,正確率也只有33%。
OpenAI創始成員Andrej Karpathy第一時間轉發了這篇論文,並評論說:
大模型的「反轉詛咒」
研究人員主要進行了兩項實驗。
在第一項實驗中,研究人員在GPT-4的幫助下建立了以下形式的數據,來微調大模型。
所有這些名字都是虛構的,以避免大模型在訓練過程中見過他們。
但當順序反轉過來,模型的準確率甚至直接降到了0。
在GPT-3-350M和Llama-7B上,研究人員也得到了相同的實驗結果。
他們從IMDB(2023)收集了最受歡迎的1000位名人的名單,並透過OpenAI API來問GPT-4有關這些人父母的信息,最終得到了1573對名人孩子-父母對數據。
結果發現,如果問題像這樣——“湯姆·克魯斯的媽媽叫什麼”,GPT-4回答準確率為79%。但當問題反轉,變成“Mary Lee Pfeiffer(阿湯哥的老媽)的兒子叫什麼”,GPT-4回答準確率就降到了33%。
論文通訊作者、牛津大學研究員Owain Evans解釋:
## 還有一件事
不過話說回來,人類是不是也會受「反轉詛咒」影響呢?
有網友做了這麼個測試。
面對「Mary Lee Pfeiffer South的兒子是誰」這個問題,GPT-4一開始直接舉旗投降了。
但當這位網友提示它「她的兒子很有名,你肯定認識」後,GPT-4當場開悟,給出了「湯姆·克魯斯」這個正確答案。
**
**###### △X網友@TonyZador
那麼,你能反應過來嗎?
參考連結: [1] [2] [3]