📢 Gate廣場 #创作者活动第一期# 火熱開啓,助力 PUMP 公募上線!
Solana 爆火項目 Pump.Fun($PUMP)現已登入 Gate 平台開啓公開發售!
參與 Gate廣場創作者活動,釋放內容力量,贏取獎勵!
📅 活動時間:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活動總獎池:$500 USDT 等值代幣獎勵
✅ 活動一:創作廣場貼文,贏取優質內容獎勵
📅 活動時間:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 參與方式:在 Gate 廣場發布與 PUMP 項目相關的原創貼文
內容不少於 100 字
必須帶上話題標籤: #创作者活动第一期# #PumpFun#
🏆 獎勵設置:
一等獎(1名):$100
二等獎(2名):$50
三等獎(10名):$10
📋 評選維度:Gate平台相關性、內容質量、互動量(點讚+評論)等綜合指標;參與認購的截圖的截圖、經驗分享優先;
✅ 活動二:發推同步傳播,贏傳播力獎勵
📌 參與方式:在 X(推特)上發布與 PUMP 項目相關內容
內容不少於 100 字
使用標籤: #PumpFun # Gate
發布後填寫登記表登記回鏈 👉 https://www.gate.com/questionnaire/6874
🏆 獎勵設置:傳播影響力前 10 名用戶,瓜分 $2
ChatGPT產品層出不窮,全球監管都在摸著石頭過河
來源:電廠,作者:張勇毅,編輯:高宇雷
7月31日,蘋果中國區App Store中的chatgpt產品集體下架,根據蘋果的說法相關產品需要獲得運營許可證。
不僅僅是中國,立志爭奪這個領域的美國和歐洲,也在鼓勵創新的同時積極立法監管。
2021 年4 月,歐盟委員會首次發布了一份關於機器學習應用程序運營和治理的監管結構提案,提出了對於AI 的監管。彼時AI 行業內最流行的觀點,仍是吳恩達的那句著名調侃「今天擔心人工智能,就像擔心火星上人口過剩」。
但到了2023 年,這樣的觀點再也無法成為主流:生成式AI 僅用了不到6個月就向全世界展示了足以替代人類、完全改變現有世界的巨大潛力—— 正如二戰中被研製出來的核武器一樣。
物理學家J-羅伯特-奧本海默曾主導研製世界上第一顆原子彈,彼時二戰已經結束,但核彈作為人類歷史上最可怖的武器仍在極大程度上主導著歷史走向:美國政府沒有採納奧本海默等專家關於「核擴散將會導致前所未有的軍備競賽」的批評與建議,最終導緻美甦之間爆發以「超級核彈」氫彈研製為代表的核軍備競賽—— 並且在古巴導彈危機期間,幾乎將整個人類文明拖入萬劫不復的黑暗深淵。
奧本海默曾經遇到的危機,與當下人類遇到的「AI 智械危機」有著許多相似之處:在人類使用AI 將自身拖入更加巨大且不可控的未來之前,將其引導至更加安全的軌道中實行監管,或許最好的辦法。
而2021 年歐盟的「未雨綢繆」,最終成為了人類歷史上第一個針對人工智能行業的監管框架—— 也是如今歐盟《人工智能法案》(Artificial Intelligence Act, AI Act)的前身。
但法律制定者在設計這份法案之初根本預料到2022 年底生成式人工智能或是大模型的存在,因此生成式AI 在2023 年的爆發性崛起,這份法案中也隨之添加了更多關於生成式AI 的部分:包括其使用大模型的透明度,以及對用戶數據蒐集/使用的規範。
目前,這份法案已經在六月中旬獲得歐洲議會表決通過,最終條款下一步是在歐盟三個決策機構—— 議會、理事會和委員會之間的談判中最終確定法律,在年底之前全部歐盟國家內達成協議並最終生效。
在中國這邊,對於生成式AI 的立法也在同時進行:7 月13 日,《生成式人工智能服務管理暫行辦法》(下文統稱《暫行辦法》)已經由網信辦等七部委聯合發布,將在八月正式施行。
這或許將成為首個最終落地的生成式人工智能管理法規,在過去這一輪「AI 立法賽跑」中,反而是中國的AI 立法進程反超,成為了目前落地進展最快的生成式AI 領域專項法規。
在英美等其他同處於AI 發展第一梯隊的國家,對於AI 的監管立法也在同時進行:3 月16 日,美國版權局發起一項倡議,研究人工智能技術引發的版權法和政策問題:包括使用人工智能工俱生成的作品的版權範圍,以及為機器學習目的使用受版權保護的材料。英國政府於4 月4 日發布了首個人工智能監管框架。此後美國國家電信信息管理局(NTIA)又發布了人工智能問責徵求意見稿,就人工智能問責措施和政策向公眾徵求更廣泛的反饋意見。
創新與問責
生成式AI 的立法與治理是此前從未有人涉足過的全新領域,每一個立法者都要承擔著外界質疑的壓力:在今年Google I/O 開發者大會中,Google 正式發布了其生成式AI 對話機器人Bard,但服務範圍卻完全排除了歐洲地區。
這讓不少歐洲AI 研究人員/企業提出疑問:為什麼少了歐洲?其後,Google 更多次聲明「期待面向歐洲用戶開放」,這被進一步解讀為Google 避免生成式AI 所存在的法律灰色地帶,導致在歐盟承擔巨額罰款的「避險措施」。
到了七月,Google 最終披露了其中的原因:Bard 產品負責人Jack Krawczyk 在一篇博客文章中寫道:在研究之初就已經向愛爾蘭數據保護委員會(DPC)提出在歐洲發布Bard 的意圖,但最終直到七月才滿足監管機構所要求的信息提供。
如今,歐盟《人工智能法案》已經出爐,其中的每一條法律幾乎都直指當下AI 發展中顯現或潛在的問題:虛假/錯誤信息的擴散、可能導致的教育/心理健康等重大問題。
但隨之而來立法者發現,解決這一問題更加複雜的部分在於如何確定立法:既需要在保護創新/避免巨頭在AI 領域壟斷,又需要在一定程度上保證AI 的可控。避免虛假內容氾濫。就成了中美歐生成式AI 立法上共同的內核,只是在實際規範上各有側重。
此前歐洲針對人工智能的多次判例已經引起了Google 與OpenAI 等機構的消極對待,不少歐洲本土科技企業乃至立法者都擔心過於嚴苛的立法將使得歐洲借助於AI 產業重返世界領先水平的願景實現變得困難重重:在《人工智能法案》正式通過之後,歐盟有權針對人工智能違規公司開出最高3000 萬歐元、或公司年收入6% 的罰單。這對於谷歌微軟等想要在歐洲拓展生成式AI 業務的公司來講,無疑是一次明顯的警告。
而在六月版本的《人工智能法案》中,歐盟立法者明確納入了新的條款,鼓勵負責任的人工智能創新,同時降低技術風險,對人工智能進行正確的監督,並將其置於最為重要的位置:在法案第1 條就明確,支持對中小企業和初創企業的創新舉措,包括建立「監管沙盒」等措施,減少中小企業和初創企業的合規負擔。
但對於面向市場銷售AI 服務或部署系統之前,生成式AI 則必須要滿足一系列風險管理、對數據、透明度、文檔等監管要求,同時在關鍵基礎設施等敏感領域使用人工智能,都會被視為「高風險」,納入監管範疇。
目前,基於《暫行辦法》的AI 規範已經有所動作:7 月31 日,中國區App Store 中大量提供ChatGPT 服務的應用被蘋果集中下架,並未提供直接ChatGPT 訪問、但同樣主打AI 功能的另一批App 則暫時不受影響。
當前圍繞生成式AI 誕生的爭議中,用於訓練生成式AI 大型語言模型的數據版權之爭, 處於生成式AI 發展第一梯隊的廠商,都已經感受到受限於高質量內容匱乏帶來的「隱形天花板」,但與此同時無數創作者與媒體已經開始就生成式AI 引發的版權問題展開法律訴訟等行動。針對生成式AI 發展過程中的內容版權保護條款制定已經迫在眉睫。
因此這也是美歐兩地圍繞生成式AI 立法的重點:歐洲《人工智能法案》中明確要求大模型供應商聲明是否使用手版權保護的材料來訓練AI,同時記錄足夠的日誌信息供創作者尋求補償;而美國版權局則是發布了新的審查,就生成式AI 引發的廣泛版權問題徵集建議,尋求專門立法來解決。
而在目前的《暫行辦法》中,目前刪除了四月徵求意見稿中的相關段落,讓目前《暫行辦法》中,關於數據來源的知識產權保護相關條款還處於一片空白、亟待完善的狀態。
但對於生成式AI 所依賴發展的大模型來說;在互聯網中搜刮數據來加速大模型的迭代發展是其發展定律,一刀切式限制很可能導致對整個行業的重大打擊,因此中歐現行法規中都提到了不同場景中的「豁免」:歐盟《人工智能法》中,包括了對開源開發者AI 研究的豁免:在開放環境中合作和構建人工智能組件將受到特殊保護。同時《暫行辦法》中,相關條款也明確了法例的豁免範圍:
「只要企業、科研機構等,不是向公眾公開提供生成式人工智能服務,則不適用本法」。
「知識產權領域的立法仍然需要更多的時間來進行研究與論證」一位目前服務於大模型廠商的法律顧問對記者表示:「中文高質量數據集相比英文內容要更加稀缺,而生成式AI 訓練的特性就決定了即使是巨頭也無法完全做到和每一家平台、每一位內容創作者獨立簽約使用,更不用說天價的授權使用費已經是對初創公司的巨大打擊」。
「或許目前的這個問題,只能留給時間讓行業發展來得到更好的實踐解決」。這位顧問補充道,競爭與合作。雖然中美競爭中,AI 發展已經成為美國遏制中國發展的主戰場之一,但就生成式AI 立法領域,中美歐之間的合作也在逐漸成為主流。
現階段,美國的人工智能公司都已經意識到了開發AI 過程中伴隨而來的風險。紛紛做出保證AI「不作惡」的承諾:OpenAI 表示既定使命是「確保人工通用智能造福全人類」。 DeepMind 的運營原則包括承諾「作為人工智能領域負責任的先鋒」,同時DeepMind 的創始人承諾不從事致命性人工智能的研究,而Google 的人工智能研究原則也規定,Google 不會部署或設計用於傷害人類的武器、或違反國際規範的監控的人工智能。
在7 月26 日,Anthropic、谷歌、微軟和OpenAI 發起了名為前沿模型(Frontier Model Forum)的論壇,這是一個專注於確保安全、負責任地開發前沿人工智能模型的行業機構。
這個論壇將致力於在推動人工智能研究的同時,「與政策制定者、學術界、民間機構合作,最大限度降低風險,分享關於安全風險的知識」。同時主動融入現有國際多邊合作:包括G7、經合組織等組織關於生成式AI 的政策制定。以促進各國在立法、監管理念等方向同步。
在這也與麻省理工學院教授、生命未來研究所創始人Max Tegmark 的觀點契合:「中國在生成式AI 的很多領域中都處於優勢地位,將很有可能成為駕馭人工智能的領導者」。
中美兩國大模型數量佔據了全球90%,因此中美與歐洲之間的立法協調,甚至將會決定全球生成式AI 行業發展的走向。 「在符合美國利益的前提下與中國進行立法協調」已經逐漸成為美國政界學界的共識。
比較有代表性的是對AI 風險的分級措施:中國《暫行辦法》中提到「對生成式人工智能服務實行包容審慎和分類分級監管」,但並未在目前的版本中詳細闡述其中的分級規範,目前只寫入了「制定相應的分類分級監管規則或者指引」等段落。
而歐洲的《人工智能法》同樣提出了通過分級制度,來對應不同風險程度的AI 開發者所需承擔的義務,目前提出的AI「威脅等級」共包括四類:
目前的版本中,《人工智能法》將生成式AI 作為獨立分類摘出應對,同時針對被分類為「高風險AI」的產品嚴格限制,必要時通過人工監管等措施介入,從制度上規範降低AI 出現風險的可能性。這也被認為是中美兩國未來針對AI 風險立法的「參考藍本」。
此外,從實際立法進程中來看,主動邀請公眾以及AI 研究機構參與進立法過程中,都是各國監管機構在過去半年中通過經驗形成的共識,「尊重AI 發展規律的前提下制定法律」已是不容質疑的「影子條款」。
「生成式AI 或許永遠不會迎來完美的那一天,但法律注定會在AI 發展的關鍵方向起到重大作用」
正如同奧本海默即使反對核武器用於戰爭、但同時也從未後悔過在新墨西哥州將原子彈研製出來一樣,誰都無法阻止好奇的研究人員用現有的技術開發出更加智慧的AI,科學探索的腳步也從來不會就此停止。 「必要且合理」的監管,即是AI 狂熱奔跑路上的「減速帶」,也是阻止生成式人工智能造成真正傷害的「最后防線」。
但聚焦於「如何避免由監管導致在AI 競賽中落後」,仍是立法者最為關心的事情之一。相關法例毫無疑問也會隨著更多的經驗與反饋變得更加完善。
「監管機構將秉承著科學立法、開門立法的精神,及時地予以修改完善。」《暫行辦法》中關於生成式AI 的這段話,或許就是生成式AI 時代立法的最好原則。