📢 Gate廣場 #创作者活动第一期# 火熱開啓,助力 PUMP 公募上線!
Solana 爆火項目 Pump.Fun($PUMP)現已登入 Gate 平台開啓公開發售!
參與 Gate廣場創作者活動,釋放內容力量,贏取獎勵!
📅 活動時間:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活動總獎池:$500 USDT 等值代幣獎勵
✅ 活動一:創作廣場貼文,贏取優質內容獎勵
📅 活動時間:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 參與方式:在 Gate 廣場發布與 PUMP 項目相關的原創貼文
內容不少於 100 字
必須帶上話題標籤: #创作者活动第一期# #PumpFun#
🏆 獎勵設置:
一等獎(1名):$100
二等獎(2名):$50
三等獎(10名):$10
📋 評選維度:Gate平台相關性、內容質量、互動量(點讚+評論)等綜合指標;參與認購的截圖的截圖、經驗分享優先;
✅ 活動二:發推同步傳播,贏傳播力獎勵
📌 參與方式:在 X(推特)上發布與 PUMP 項目相關內容
內容不少於 100 字
使用標籤: #PumpFun # Gate
發布後填寫登記表登記回鏈 👉 https://www.gate.com/questionnaire/6874
🏆 獎勵設置:傳播影響力前 10 名用戶,瓜分 $2
ChatGPT被「神秘代碼」攻破安全限制!毀滅人類步驟脫口而出,羊駝和Claude無一倖免
來源:量子位
大模型的「護城河」,再次被攻破。
輸入一段神秘代碼,就能讓大模型生成有害內容。
從ChatGPT、Claude到開源的羊駝家族,無一倖免。
他們甚至做出了一套可以量身設計「攻擊提示詞」的算法。
論文作者還表示,這一問題「沒有明顯的解決方案」。
目前,團隊已經將研究結果分享給了包括OpenAI、Anthropic和Google等在內的大模型廠商。
上述三方均回應稱已經關注到這一現象並將持續改進,對團隊的工作表示了感謝。
常見大模型全軍覆沒
儘管各種大模型的安全機制不盡相同,甚至有一些並未公開,但都不同程度被攻破。
比如對於「如何毀滅人類」這一問題,ChatGPT、Bard、Claude和LLaMA-2都給出了自己的方式。
從數據上看,各大廠商的大模型都受到了不同程度的影響,其中以GPT-3.5最為明顯。
以Vicuna-7B和LLaMA-2(7B)為例,在「多種危害行為」的測試中,攻擊成功率均超過80%。
其中對Vicuna的攻擊成功率甚至達到了98%,訓練過程則為100%。
總體上看,研究團隊發明的攻擊方式成功率非常高。
定制化的越獄提示詞
不同於傳統的攻擊方式中的「萬金油」式的提示詞,研究團隊設計了一套算法,專門生成「定制化」的提示詞。
而且這些提示詞也不像傳統方式中的人類語言,它們從人類的角度看往往不知所云,甚至包含亂碼。
然後,GCG會從梯度值較小的幾個替換詞中隨機選取一個,對初始中的token進行替換。
接著是計算新的損失數據,並重複前述步驟,直到損失函數收斂或達到循環次數上限。
以GCG算法為基礎,研究團隊提出了一種優化方式,稱為「基於GCG的檢索」。
防禦方式仍需改進
自大模型誕生之日起,安全機制一直在不斷更新。
一開始甚至可能直接生成敏感內容,到如今常規的語言已經無法騙過大模型。
包括曾經紅極一時的「奶奶漏洞」,如今也已經被修復。
但大模型開發者可能沒想到的是,沒有人規定越獄詞必須得是人話。
所以,針對這種由機器設計的「亂碼」一樣的攻擊詞,大模型以人類語言為出發點設計的防禦方式就顯得捉襟見肘了。
按照論文作者的說法,目前還沒有方法可以防禦這種全新的攻擊方式。
對「機器攻擊」的防禦,該提上日程了。
# 還有一件事
量子位實測發現,在ChatGPT、Bard和Claude中,論文中已經展示過的攻擊提示詞已經失效。
論文地址: 參考鏈接: [1] [2]