📢 Gate廣場 #NERO发帖挑战# 秀觀點贏大獎活動火熱開啓!
Gate NERO生態周來襲!發帖秀出NERO項目洞察和活動實用攻略,瓜分30,000NERO!
💰️ 15位優質發帖用戶 * 2,000枚NERO每人
如何參與:
1️⃣ 調研NERO項目
對NERO的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與NERO生態周相關活動,並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
NERO熱門活動(帖文需附以下活動連結):
NERO Chain (NERO) 生態周:Gate 已上線 NERO 現貨交易,爲回饋平台用戶,HODLer Airdrop、Launchpool、CandyDrop、餘幣寶已上線 NERO,邀您體驗。參與攻略見公告:https://www.gate.com/announcements/article/46284
高質量帖子Tips:
教程越詳細、圖片越直觀、互動量越高,獲獎幾率越大!
市場見解獨到、真實參與經歷、有帶新互動者,評選將優先考慮。
帖子需原創,字數不少於250字,且需獲得至少3條有效互動
300 張圖「毒倒」 SD,藝術家們的反擊工具 Nightshade 要給 AI 繪畫「上一課」?
撰文:Melissa Heikkilä
來源:麻省理工科技評論
一種新的工具可以讓藝術家們在將作品上傳到網上之前,對其藝術作品中的圖元添加不可見的更改,如果這些圖片被收錄進了 AI 訓練集,就會導致生成模型以混亂且不可預測的方式崩潰。
該工具名為“Nightshade”,旨在反擊那些未經創作者許可就使用藝術家作品訓練模型的人工智慧公司。 使用它來「毒化」這些訓練數據可能會損害圖像生成模型的未來反覆運算,例如 DALL-E、Midjourney 和 Stable Diffusion,使它們的一些輸出結果變得錯亂 -- 狗變成貓,汽車變成牛,等等。 目前這項研究已提交給計算機安全會議 Usenix 進行同行評審。
OpenAI、Meta、Google 和 Stability AI 等人工智慧公司面臨著來自藝術家的一系列訴訟,這些藝術家聲稱他們的受版權保護的材料和個人資訊在未經同意或補償的情況下被竊取。 領導了 Nightshade 創建團隊的芝加哥大學教授 Ben Zhao 表示,希望它能夠對不尊重藝術家版權和智慧財產權的行為產生強大的威懾,從而説明將權力平衡從人工智慧公司轉向藝術家。 Meta、谷歌、Stability AI 和 OpenAI 沒有回應《麻省理工科技評論》的置評請求。
據悉,Zhao 的團隊還開發了一款工具 Glaze,允許藝術家“掩蓋”自己的個人風格,以防止被人工智慧公司竊取。 它的工作原理與 Nightshade 類似:以人眼看不見的微妙方式改變圖像的圖元,操縱機器學習模型將圖像解釋為與實際顯示的不同的東西。
該團隊打算將 Nightshade 集成到 Glaze 中,藝術家們可以選擇是否使用這種可以使數據“中毒”的工具。 該團隊還打算將 Nightshade 開源,也就是說,任何人都可以對其進行修改並製作自己的版本。 Zhao 說,使用它並製作自己版本的人越多,該工具就會變得越強大。 大型人工智慧模型的數據集可能包含數十億張圖像,因此模型中的有毒圖像越多,該技術造成的損害就會越大。
有針對性的攻擊
Nightshade 利用了生成式人工智慧模型中的一個安全漏洞,該漏洞是在大量數據的基礎上訓練出來的 -- 在本例中,這些數據就是從互聯網上搜索來的圖片。 Nightshade 會破壞這些圖像。
想要在線上傳作品但又不希望自己的圖像被人工智慧公司抓取的藝術家可以將其上傳到 Glaze,並選擇用與自己不同的藝術風格來掩蓋它。 然後,他們還可以選擇使用 Nightshade。 一旦人工智慧開發人員從互聯網上獲取更多數據來調整現有的人工智慧模型或建立新模型,這些有毒樣本就會進入模型的數據集,導致模型失靈。
例如,中毒數據樣本會操縱模型,使其認為帽子的圖像是蛋糕,手提包的圖像是烤麵包機。 中毒數據很難清除,因為這需要技術公司費盡心思找到並刪除每個損壞的樣本。
研究人員在 Stable Diffusion 的最新模型和他們自己從頭開始訓練的人工智慧模型上測試了這種攻擊。 當他們向 Stable Diffusion 只輸入 50 張中毒的狗的圖片,然後讓它自己創建狗的圖片時,輸出的圖片開始變得奇怪 -- 四肢過多、臉部變得卡通化。 而在輸入 300 個中毒樣本後,攻擊者就能操縱 Stable Diffusion 生成看起來像貓的狗圖像。
“我們還不知道針對這些攻擊的強大防禦措施。 我們還沒有看到過對現代 [機器學習] 模型的攻擊,但這可能只是時間問題。 “康奈爾大學研究人工智慧模型安全性的教授 Vitaly Shmatikov 表示,他沒有參與該研究。” 現在是研究防禦的時候了,“Shmatikov 補充道。
滑鐵盧大學助理教授 Gautam Kamath 研究數據隱私和人工智慧模型的魯棒性,他也沒有參與這項研究,但他表示,這項工作“非常棒”。
Kamath表示,研究表明,漏洞“並不會因為這些新模型而神奇消失,事實上只會變得更加嚴重”,“當這些模型變得越來越強大,人們對它們的信任度越來越高時,情況尤其如此,因為風險只會隨著時間的推移而增加。 ”
強大的威懾力
哥倫比亞大學計算機科學教授 Junfeng Yang 曾研究過深度學習系統的安全性,但沒有參與這項研究。 他說,如果 Nightshade 能讓人工智慧公司更加尊重藝術家的權利,比如更願意支付版稅,那麼它將產生巨大的影響。
開發了文本到圖像生成模型的人工智慧公司,如 Stability AI 和 OpenAI,已經提出讓藝術家選擇不將他們的圖像用於訓練未來版本的模型。 但藝術家們表示這還不夠。 曾使用過 Glaze 的插圖畫家和藝術家 Eva Toorenent 說,退出政策要求藝術家們通過重重關卡,而科技公司仍然掌握著所有權力。
Toorenent 希望 Nightshade 能改變現狀。
她說:「這會讓(人工智慧公司)三思而後行,因為他們有可能在未經我們同意的情況下拿走我們的作品,從而破壞他們的整個模型。 ”
另一位藝術家 Autumn Beverly 表示,Nightshade 和 Glaze 等工具讓她有信心再次在網上發佈自己的作品。 此前,她發現自己的作品在未經同意的情況下被搜刮進了大火的 LAION 圖片資料庫后,便將其從互聯網上刪除了。
她說:「我真的很感激我們有這樣一個工具,它可以幫助藝術家們重新掌握自己作品的使用權。 ”