穩健,是 Gate 持續增長的核心動力。
真正的成長,不是順風順水,而是在市場低迷時依然堅定前行。我們或許能預判牛熊市的大致節奏,但絕無法精準預測它們何時到來。特別是在熊市週期,才真正考驗一家交易所的實力。
Gate 今天發布了2025年第二季度的報告。作爲內部人,看到這些數據我也挺驚喜的——用戶規模突破3000萬,現貨交易量逆勢環比增長14%,成爲前十交易所中唯一實現雙位數增長的平台,並且登頂全球第二大交易所;合約交易量屢創新高,全球化戰略穩步推進。
更重要的是,穩健並不等於守成,而是在面臨嚴峻市場的同時,還能持續創造新的增長空間。
歡迎閱讀完整報告:https://www.gate.com/zh/announcements/article/46117
DeepFake 氾濫下,靠水印就能為AIGC 帶來更多信任嗎?
撰文:Claire Leibowicz
來源:麻省理工科技評論
5 月下旬,五角大樓著火的圖片在網上瘋傳。而幾英里外,白宮助理和記者們則忙著弄清楚這些大樓爆炸的圖片是否屬實。
結果是,這些圖片是由人工智能生成的。但政府官員、記者和科技公司卻無法在圖片產生實際影響之前採取行動。這不僅造成了混亂,還導致了金融市場的下跌。
操縱和誤導性內容並非新現象。但人工智能使內容創作變得越來越容易,且生成的內容往往十分逼真。雖然AI 可以用於藝術表達或可訪問性改進,但也可能被濫用於對政治事件的質疑,或用於誹謗、騷擾和剝削。
無論是為了促進選舉的公正性、保護證據、減少錯誤信息還是保存歷史記錄,受眾都可以通過了解內容是否被人工智能操縱或生成而受益。如果五角大樓的圖片含有人工智能生成的痕跡,技術平台或許就能更快地採取行動;它們本可以及時減少圖片的傳播,或者對內容進行標註,這樣受眾或許就能更容易地識別出圖片是偽造的。這樣就可以避免混亂,進而避免市場波動。
毫無疑問,要想區分真假,我們需要更多的透明度。上個月,白宮就如何做到這一點發表了意見,宣布七家最著名的人工智能公司已承諾“制定強有力的技術措施,確保用戶知道什麼內容是人工智能生成的,比如水印。”
水印等披露方法是一個良好的開端。不過,這些方法在實踐中比較複雜,而且也不是什麼快速有效方案。目前還不清楚水印是否能幫助Twitter 用戶識別出五角大樓的假圖像,或者識別出最近特朗普在廣告活動中的聲音是合成的。而其他方法,比如來源披露和元數據,是否會產生更大的影響?最重要的是,僅僅披露內容是人工智能生成的,是否能幫助受眾區分事實與虛構,或減輕對現實世界的傷害?
要回答這些問題,我們需要明確水印和其他類型的披露方法的含義。我們需要明確它們是什麼,我們可以合理地期望它們做些什麼,以及即使引入這些方法,還會存在哪些問題。儘管對定義的爭論看似迂腐,但“水印”一詞的廣泛使用目前正在造成整個人工智能領域的混亂。定義這些不同方法的含義,是人工智能領域合作並就披露標準達成一致的重要前提。否則,人們就會各說各話。
我在領導非營利組織“人工智能夥伴關係”(PAI)開展多部門工作,為負責任的合成媒體制定指導方針時,親眼目睹了這一問題,OpenAI、Adobe、Witness、微軟、BBC 等組織都做出了承諾。
一方面,水印可以指最終用戶可見的信號(例如,圖像供應商的媒體上印有“Getty Images”字樣)。不過,它也可以指嵌入內容中肉眼或耳朵無法察覺的技術信號。這兩種類型的水印-- 被稱為“直接”和“間接”披露-- 對於確保透明度都至關重要。因此,任何關於水印的挑戰和機遇的討論都必須強調評估的是哪種類型的水印。
更加複雜的是,水印經常被用作提供內容披露的一般行為的“總括”術語,儘管有許多方法。仔細閱讀白宮的承諾,就會發現另一種被稱為“出處”(provenance)的披露方法,它依靠的是加密簽名,而不是隱形信號。不過,在大眾媒體中,這通常也被描述為水印。如果你覺得這些混雜的術語令人困惑,請放心,你不是唯一一個。晰度很重要:如果我們連如何稱呼不同的技術都無法達成一致,那麼人工智能領域就無法實施一致且穩健的透明度措施。
對此,我提出了六個初步問題,可以幫助我們評估水印和其他人工智能披露方法的實用性。這些問題應有助於確保各方討論的問題完全相同,並確保我們能以全面、一致的方式評估每種方法。
**水印本身會被篡改嗎? **
具有諷刺意味的是,被吹捧為有助於衡量內容來源和內容如何被修改的技術信號,有時本身也會被篡改。雖然很難,但隱形和可見的水印都可以被移除或篡改。水印被篡改的難易程度因內容類型而異。
**不同類型內容的水印有效性是否一致? **
雖然隱形水印經常被宣傳為處理生成式人工智能的廣泛解決方案,但這種嵌入式信號在文本中比在視聽內容中更容易被操縱。這很可能解釋了為什麼白宮的摘要文件暗示水印將適用於所有類型的人工智能,但在全文中卻明確指出,公司只承諾對視聽材料進行披露。因此,在製定人工智能政策時,必須具體說明隱形水印等披露技術在不同內容類型中的有效性和更廣泛的技術穩健性有何不同。一種披露解決方案可能對圖像很有用,但對文本毫無用處。
**誰能檢測這些隱形信號? **
即使AI 行業同意實施隱形水印,更深層次的問題也不可避免地會出現,即誰有能力檢測這些信號,並最終根據這些信號做出權威性的聲明。誰能決定內容是否是人工智能生成的,或者作為延伸,誰能決定內容是否具有誤導性?如果每個人都能檢測水印,那麼這可能會導致它們容易被壞人濫用。另一方面,對檢測隱形水印的權限進行控制-- 特別是如果由大型人工智能公司主導的話-- 可能會降低開放性並強化技術把關。在未確定如何管理的情況下實施這類信息披露方法,可能會導致這些方法不被信任且效果不佳。而且,如果這些技術沒有被廣泛採用,壞人可能會轉向缺乏隱形水印的開源技術,製造有害和誤導性的內容。
**水印能保護隱私嗎? **
正如人權與技術組織Witness 的主要工作所表明的,任何隨內容長期傳播的追踪系統都可能給內容創建者帶來隱私問題。人工智能行業必須確保水印和其他披露技術的設計方式不包含可能給創作者帶來風險的識別信息。例如,人權捍衛者可能會通過帶有身份識別信息水印的照片來捕捉侵權行為,從而使其很容易成為專制政府的目標。即使知道水印可能洩露活動人士的身份,也可能對錶達和言論產生寒蟬效應。政策制定者必須提供更明確的指導,說明如何設計信息披露,以保護內容創建者的隱私,同時還要包括足夠有用和實用的細節。
**可見的披露是否有助於受眾理解生成式AI 的作用? **
即使隱形水印在技術上可以持久保護隱私,也未必能幫助受眾解讀內容。雖然直接披露(如可見水印)具有提供更大透明度的直觀吸引力,但這種披露並不一定能達到預期效果,它們往往會被認為是家長作風的、有偏見的和懲罰性的,即使它們沒有說明內容的真實性。此外,受眾可能會誤解直接披露。在我2021 年的研究中,一位參與者誤解了Twitter 的“被操縱的媒體”標籤,認為是“媒體”機構在操縱他,而不是特定視頻的內容被剪輯以誤導他。雖然關於不同的用戶體驗設計如何影響受眾對內容披露的理解的研究不斷湧現,但大部分研究都集中在大型科技公司內部,而且主要集中在選舉等不同的背景下。研究直接披露和用戶體驗的效果,而不是僅僅依賴於給人工智能生成的內容貼標籤的直觀吸引力,對於提高透明度的有效決策至關重要。
**給AIGC 打上明顯的水印會降低人們對“真實”內容的信任嗎? **
也許要評估的最棘手的社會問題是,協調一致的直接披露將如何影響人們對信息的廣泛態度,並可能降低人們對“真實”內容的信任。如果人工智能組織和社交媒體平台只是簡單地標註內容是人工智能生成或修改的-- 這是一種可以理解、但有限的方式,以避免對哪些聲明具有誤導性或有害性做出判斷--這會如何影響我們看待網上內容的方式?
通過信息披露提高媒體素養是一項崇高的事業;然而,許多在科技公司內外政策團隊工作的人擔心,過早推動對所有生成內容進行標註將導致“騙子分化”-- 社會對所有可能由人工智能生成的內容的懷疑態度如此明顯,以至於破壞了人們對非人工智能生成的真實內容的信任,這種擔心是可以理解的。這種前景也導致人們不確定,是否所有看似低風險的人工智能內容創作使用-- 例如,iPhone 的人像模式依賴於人工智能技術,或者白宮承諾中提到的語音助手-- 都需要披露人工智能的參與。該領域需要共同努力,衡量社會對信息的長期態度,並確定何時披露人工智能的參與才有意義。最重要的是,他們必須評估那些僅僅描述內容創建方法(說明某些內容是由人工智能生成或編輯的)的可見性披露影響,以替代我們真正關心的內容:說明內容聲明的真假。
水印和其他披露技術帶來的挑戰不應被用作不作為或限制透明度的藉口。相反,它們應推動公司、政策制定者和其他人共同製定定義,並決定如何評估實施過程中不可避免的權衡。只有這樣,生成式人工智能政策才能充分幫助受眾區分事實與捏造。