ChatGPT產品層出不窮,全球監管都在摸著石頭過河

來源:電廠,作者:張勇毅,編輯:高宇雷

圖片來源:由無界AI工俱生成

7月31日,蘋果中國區App Store中的chatgpt產品集體下架,根據蘋果的說法相關產品需要獲得運營許可證。

不僅僅是中國,立志爭奪這個領域的美國和歐洲,也在鼓勵創新的同時積極立法監管。

2021 年4 月,歐盟委員會首次發布了一份關於機器學習應用程序運營和治理的監管結構提案,提出了對於AI 的監管。彼時AI 行業內最流行的觀點,仍是吳恩達的那句著名調侃「今天擔心人工智能,就像擔心火星上人口過剩」。

但到了2023 年,這樣的觀點再也無法成為主流:生成式AI 僅用了不到6個月就向全世界展示了足以替代人類、完全改變現有世界的巨大潛力—— 正如二戰中被研製出來的核武器一樣。

物理學家J-羅伯特-奧本海默曾主導研製世界上第一顆原子彈,彼時二戰已經結束,但核彈作為人類歷史上最可怖的武器仍在極大程度上主導著歷史走向:美國政府沒有採納奧本海默等專家關於「核擴散將會導致前所未有的軍備競賽」的批評與建議,最終導緻美甦之間爆發以「超級核彈」氫彈研製為代表的核軍備競賽—— 並且在古巴導彈危機期間,幾乎將整個人類文明拖入萬劫不復的黑暗深淵。

奧本海默曾經遇到的危機,與當下人類遇到的「AI 智械危機」有著許多相似之處:在人類使用AI 將自身拖入更加巨大且不可控的未來之前,將其引導至更加安全的軌道中實行監管,或許最好的辦法。

而2021 年歐盟的「未雨綢繆」,最終成為了人類歷史上第一個針對人工智能行業的監管框架—— 也是如今歐盟《人工智能法案》(Artificial Intelligence Act, AI Act)的前身。

但法律制定者在設計這份法案之初根本預料到2022 年底生成式人工智能或是大模型的存在,因此生成式AI 在2023 年的爆發性崛起,這份法案中也隨之添加了更多關於生成式AI 的部分:包括其使用大模型的透明度,以及對用戶數據蒐集/使用的規範。

目前,這份法案已經在六月中旬獲得歐洲議會表決通過,最終條款下一步是在歐盟三個決策機構—— 議會、理事會和委員會之間的談判中最終確定法律,在年底之前全部歐盟國家內達成協議並最終生效。

在中國這邊,對於生成式AI 的立法也在同時進行:7 月13 日,《生成式人工智能服務管理暫行辦法》(下文統稱《暫行辦法》)已經由網信辦等七部委聯合發布,將在八月正式施行。

這或許將成為首個最終落地的生成式人工智能管理法規,在過去這一輪「AI 立法賽跑」中,反而是中國的AI 立法進程反超,成為了目前落地進展最快的生成式AI 領域專項法規。

在英美等其他同處於AI 發展第一梯隊的國家,對於AI 的監管立法也在同時進行:3 月16 日,美國版權局發起一項倡議,研究人工智能技術引發的版權法和政策問題:包括使用人工智能工俱生成的作品的版權範圍,以及為機器學習目的使用受版權保護的材料。英國政府於4 月4 日發布了首個人工智能監管框架。此後美國國家電信信息管理局(NTIA)又發布了人工智能問責徵求意見稿,就人工智能問責措施和政策向公眾徵求更廣泛的反饋意見。

「我們是否應該發展出最終可能在數量、智慧上能完全取代人類的非人類思維?」這是在今年三月,由多位知名CEO 與研究人員簽署的一封公開信中所提出的問題。現在回看,發展生成式AI 的路徑中,「所有人暫停研究六個月」這樣的號召過於理想化,眼下只有各國推動起到監管作用的生成式AI 相關法律,或許才是其中行之有效的道理。

創新與問責

生成式AI 的立法與治理是此前從未有人涉足過的全新領域,每一個立法者都要承擔著外界質疑的壓力:在今年Google I/O 開發者大會中,Google 正式發布了其生成式AI 對話機器人Bard,但服務範圍卻完全排除了歐洲地區。

這讓不少歐洲AI 研究人員/企業提出疑問:為什麼少了歐洲?其後,Google 更多次聲明「期待面向歐洲用戶開放」,這被進一步解讀為Google 避免生成式AI 所存在的法律灰色地帶,導致在歐盟承擔巨額罰款的「避險措施」。

到了七月,Google 最終披露了其中的原因:Bard 產品負責人Jack Krawczyk 在一篇博客文章中寫道:在研究之初就已經向愛爾蘭數據保護委員會(DPC)提出在歐洲發布Bard 的意圖,但最終直到七月才滿足監管機構所要求的信息提供。

如今,歐盟《人工智能法案》已經出爐,其中的每一條法律幾乎都直指當下AI 發展中顯現或潛在的問題:虛假/錯誤信息的擴散、可能導致的教育/心理健康等重大問題。

但隨之而來立法者發現,解決這一問題更加複雜的部分在於如何確定立法:既需要在保護創新/避免巨頭在AI 領域壟斷,又需要在一定程度上保證AI 的可控。避免虛假內容氾濫。就成了中美歐生成式AI 立法上共同的內核,只是在實際規範上各有側重。

此前歐洲針對人工智能的多次判例已經引起了Google 與OpenAI 等機構的消極對待,不少歐洲本土科技企業乃至立法者都擔心過於嚴苛的立法將使得歐洲借助於AI 產業重返世界領先水平的願景實現變得困難重重:在《人工智能法案》正式通過之後,歐盟有權針對人工智能違規公司開出最高3000 萬歐元、或公司年收入6% 的罰單。這對於谷歌微軟等想要在歐洲拓展生成式AI 業務的公司來講,無疑是一次明顯的警告。

而在六月版本的《人工智能法案》中,歐盟立法者明確納入了新的條款,鼓勵負責任的人工智能創新,同時降低技術風險,對人工智能進行正確的監督,並將其置於最為重要的位置:在法案第1 條就明確,支持對中小企業和初創企業的創新舉措,包括建立「監管沙盒」等措施,減少中小企業和初創企業的合規負擔。

但對於面向市場銷售AI 服務或部署系統之前,生成式AI 則必須要滿足一系列風險管理、對數據、透明度、文檔等監管要求,同時在關鍵基礎設施等敏感領域使用人工智能,都會被視為「高風險」,納入監管範疇。

目前,基於《暫行辦法》的AI 規範已經有所動作:7 月31 日,中國區App Store 中大量提供ChatGPT 服務的應用被蘋果集中下架,並未提供直接ChatGPT 訪問、但同樣主打AI 功能的另一批App 則暫時不受影響。

在面向開發者給出的回復中,蘋果官方給出的審核建議是「生成式人工智能服務必須滿足在中國運營的許可要求,包括從工信部獲得許可證」,這一審核規範的變更也直接對應著《暫行辦法》中的「面向公眾提供服務」這一類別。

中國的《暫行辦法》第十五條中,也明確提到針對生成風險內容的管理方式「提供者應當及時採取停止生成、停止傳輸、消除等處置措施,採取模型優化訓練等措施進行整改」。這已經是在《徵求意見稿》中提到的內容;但相比前一個版本,《暫行辦法》中的描述更為溫和,刪除了「三個月內整改」等期限描述。

當前圍繞生成式AI 誕生的爭議中,用於訓練生成式AI 大型語言模型的數據版權之爭, 處於生成式AI 發展第一梯隊的廠商,都已經感受到受限於高質量內容匱乏帶來的「隱形天花板」,但與此同時無數創作者與媒體已經開始就生成式AI 引發的版權問題展開法律訴訟等行動。針對生成式AI 發展過程中的內容版權保護條款制定已經迫在眉睫。

因此這也是美歐兩地圍繞生成式AI 立法的重點:歐洲《人工智能法案》中明確要求大模型供應商聲明是否使用手版權保護的材料來訓練AI,同時記錄足夠的日誌信息供創作者尋求補償;而美國版權局則是發布了新的審查,就生成式AI 引發的廣泛版權問題徵集建議,尋求專門立法來解決。

而在目前的《暫行辦法》中,目前刪除了四月徵求意見稿中的相關段落,讓目前《暫行辦法》中,關於數據來源的知識產權保護相關條款還處於一片空白、亟待完善的狀態。

但對於生成式AI 所依賴發展的大模型來說;在互聯網中搜刮數據來加速大模型的迭代發展是其發展定律,一刀切式限制很可能導致對整個行業的重大打擊,因此中歐現行法規中都提到了不同場景中的「豁免」:歐盟《人工智能法》中,包括了對開源開發者AI 研究的豁免:在開放環境中合作和構建人工智能組件將受到特殊保護。同時《暫行辦法》中,相關條款也明確了法例的豁免範圍:

「只要企業、科研機構等,不是向公眾公開提供生成式人工智能服務,則不適用本法」。

「知識產權領域的立法仍然需要更多的時間來進行研究與論證」一位目前服務於大模型廠商的法律顧問對記者表示:「中文高質量數據集相比英文內容要更加稀缺,而生成式AI 訓練的特性就決定了即使是巨頭也無法完全做到和每一家平台、每一位內容創作者獨立簽約使用,更不用說天價的授權使用費已經是對初創公司的巨大打擊」。

「或許目前的這個問題,只能留給時間讓行業發展來得到更好的實踐解決」。這位顧問補充道,競爭與合作。雖然中美競爭中,AI 發展已經成為美國遏制中國發展的主戰場之一,但就生成式AI 立法領域,中美歐之間的合作也在逐漸成為主流。

現階段,美國的人工智能公司都已經意識到了開發AI 過程中伴隨而來的風險。紛紛做出保證AI「不作惡」的承諾:OpenAI 表示既定使命是「確保人工通用智能造福全人類」。 DeepMind 的運營原則包括承諾「作為人工智能領域負責任的先鋒」,同時DeepMind 的創始人承諾不從事致命性人工智能的研究,而Google 的人工智能研究原則也規定,Google 不會部署或設計用於傷害人類的武器、或違反國際規範的監控的人工智能。

在7 月26 日,Anthropic、谷歌、微軟和OpenAI 發起了名為前沿模型(Frontier Model Forum)的論壇,這是一個專注於確保安全、負責任地開發前沿人工智能模型的行業機構。

這個論壇將致力於在推動人工智能研究的同時,「與政策制定者、學術界、民間機構合作,最大限度降低風險,分享關於安全風險的知識」。同時主動融入現有國際多邊合作:包括G7、經合組織等組織關於生成式AI 的政策制定。以促進各國在立法、監管理念等方向同步。

此前,《時代》雜誌曾評論稱,中國與美國在生成式AI 的「重要參與者」地位,與歐洲經常在事實上成為新技術立法的「開拓者」之間,存在著許多合作的可能性,在立法階段開始合作符合各方利益,同時也是促進生成式AI 發展的重要手段之一。

在這也與麻省理工學院教授、生命未來研究所創始人Max Tegmark 的觀點契合:「中國在生成式AI 的很多領域中都處於優勢地位,將很有可能成為駕馭人工智能的領導者」。

中美兩國大模型數量佔據了全球90%,因此中美與歐洲之間的立法協調,甚至將會決定全球生成式AI 行業發展的走向。 「在符合美國利益的前提下與中國進行立法協調」已經逐漸成為美國政界學界的共識。

WIRED 專題報導封面

比較有代表性的是對AI 風險的分級措施:中國《暫行辦法》中提到「對生成式人工智能服務實行包容審慎和分類分級監管」,但並未在目前的版本中詳細闡述其中的分級規範,目前只寫入了「制定相應的分類分級監管規則或者指引」等段落。

而歐洲的《人工智能法》同樣提出了通過分級制度,來對應不同風險程度的AI 開發者所需承擔的義務,目前提出的AI「威脅等級」共包括四類:

  • 有限風險類AI
  • 高風險AI
  • 不可接受級風險
  • 生成式AI:類ChatGPT 等產品

目前的版本中,《人工智能法》將生成式AI 作為獨立分類摘出應對,同時針對被分類為「高風險AI」的產品嚴格限制,必要時通過人工監管等措施介入,從制度上規範降低AI 出現風險的可能性。這也被認為是中美兩國未來針對AI 風險立法的「參考藍本」。

此外,從實際立法進程中來看,主動邀請公眾以及AI 研究機構參與進立法過程中,都是各國監管機構在過去半年中通過經驗形成的共識,「尊重AI 發展規律的前提下制定法律」已是不容質疑的「影子條款」。

「生成式AI 或許永遠不會迎來完美的那一天,但法律注定會在AI 發展的關鍵方向起到重大作用」

正如同奧本海默即使反對核武器用於戰爭、但同時也從未後悔過在新墨西哥州將原子彈研製出來一樣,誰都無法阻止好奇的研究人員用現有的技術開發出更加智慧的AI,科學探索的腳步也從來不會就此停止。 「必要且合理」的監管,即是AI 狂熱奔跑路上的「減速帶」,也是阻止生成式人工智能造成真正傷害的「最后防線」。

但聚焦於「如何避免由監管導致在AI 競賽中落後」,仍是立法者最為關心的事情之一。相關法例毫無疑問也會隨著更多的經驗與反饋變得更加完善。

「監管機構將秉承著科學立法、開門立法的精神,及時地予以修改完善。」《暫行辦法》中關於生成式AI 的這段話,或許就是生成式AI 時代立法的最好原則。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)