📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
開放模式權重被指將導致AI失控,Meta遭舉牌抗議,LeCun:開源AI社群如火如荼
一直以來,人們在AI 領域的開源與閉源選擇上存在著分歧,而在大模型時代,開源這股強大的力量已經悄悄崛起。根據先前谷歌洩露的內部文件,圍繞著Meta 的LLaMA 等開源模型,整個社區正在迅速建立與OpenAI、谷歌大模型能力類似的模型。
毋庸置疑,Meta 是開源世界的絕對核心,持續做出開源努力,如最近發布Llama 2。然而木秀於林風必摧之,最近Meta 因為開源陷入了「麻煩」。
在Meta 的舊金山辦公室外,一群手舉標語的抗議者聚集在一起,抗議Meta 公開發布AI 模型的策略,並聲稱這些發布的模型造成了潛在不安全技術的「不可逆轉的擴散」。甚至有抗議者將Meta 發布的大模型比喻為「大規模殺傷性武器」。
這些抗議者自稱為“concerned citizens”(關心某事的公民),由Holly Elmore 領導。根據領英信息,她是AI Pause(中止AI)運動的獨立倡導者。
她指出,如果一個模型被證明不安全,則可以關閉API,例如Google和OpenAI 等只允許使用者透過API 存取的大模型。
與之相反,Meta 的LLaMA 系列開源模型向公眾提供了模型權重,使得任何擁有合適硬體和專業知識的人都可以自行複製和調整模型。一旦發布了模型權重,發佈公司就不再有任何手段來控制AI 的使用方式了。
在Holly Elmore 看來,釋放模型權重是一項危險的策略,任何人都可以修改模型,而這些模型無法被召回。 「模型越強大,這項策略就越危險。」
相較於開源,透過API 存取的大模型通常具備各種安全特性,例如響應過濾或透過特定訓練阻止輸出危險或令人厭惡的回應。
如果模型權重被釋放出來,那麼重新訓練模型來跳過這些「護欄」就變得容易多了。這使得利用這些開源模型來製作網路釣魚軟體、實施網路攻擊更加成為了可能。
因為,她認為部分問題在於「針對模型釋放的安全措施不夠」,需要有更好的方式來確保模型安全。
目前,Meta 尚未對此發表任何評論。不過,Meta 首席AI 科學家Yann LeCun 似乎對「開源AI 必須被取締」這一說法進行了回應,曬出了巴黎開源AI 創業社群的盛況。
有網友表示,開源有利有弊,既可以讓人們獲得更高透明度並增強創新,但也將面臨惡意行為者濫用(如程式碼)的風險。
MIT AI 安全博士後研究員Peter S. Park 表示:「未來廣泛發布先進的AI 模型將特別成問題,因為防止濫用AI 模型基本上是不可能的。」
不過,非營利人工智慧研究組織EleutherAI 的執行董事Stella Biderman 表示:「到目前為止,幾乎沒有證據表明開源模型造成了任何具體的損害。目前還不清楚是否僅在API 背後放置一個模型就可以解決安全問題。」
Biderman 認為:「建構LLM 的基本要素已在免費的研究論文中公開,世界上任何人都可以閱讀論文文獻來發展自己的模型。」
她還補充說:「鼓勵公司對模型細節保密可能會對領域研究的透明度、公眾意識和科學發展產生嚴重的不良後果,特別是會影響獨立研究人員。」
儘管大家已經在討論開源帶來的影響,但Meta 的方法是否真的足夠開放,是否能夠發揮開源的優勢,還未可知。
開放原始碼促進會(OSI)執行董事Stefano Maffulli 表示:「開源AI 的概念尚未正確定義。不同的組織使用這個術語來指稱不同的事物- 表示不同程度的『公開可用的東西』,這會讓人感到困惑。」
OSI 自去年以來一直致力於為「開源AI」給出一個確切的定義,很有可能會在未來幾週內發布早期草案。但無論如何,他都認為開源對AI 發展至關重要。 「如果AI 不是開源的,我們就不可能擁有值得信賴、負責任的AI」,他說。
未來,關於開源與閉源的分歧會一直延續下去,但開源已經無法阻擋。
原文連結: