邁向負責任AI:中國AI 治理趨勢與展望

作者:曹建峰,騰訊研究院高級研究員

圖片來源:由無界AI生成

21世紀是數字化、網絡化、智能化深入發展的時代,人工智能(AI)作為其中的關鍵技術,其進展備受各界矚目。而**過去十年被認為是以深度學習為代表的AI的“黃金十年”。 ** [1] 通過深度學習,AI領域的神經網絡技術(Neural Networks)迎來復甦,讓AI領域迎來飛速發展的“第三個春天”。在這之前,自從1956年達特茅斯會議提出“人工智能”這一概念以來,AI領域已經歷兩起兩落。具體而言,機器學習算法、大數據、雲計算、AI專用芯片、開源軟件框架等諸多技術要素的匯聚發展,推動了AI領域取得巨大進展,不僅AI的感知、理解、學習、決策等能力持續得到提高,而且AI因此迅速成為新的通用技術和經濟社會的智能底座,被廣泛應用於經濟社會的各個領域,帶來新的產品和服務。從消費互聯網領域的算法推薦、AI生成內容(AIGC)、聊天機器人,到產業領域的無人駕駛汽車、AI醫療軟件、AI質檢,再到社會公共服務中的各種便民應用,AI對經濟社會高質量發展的巨大價值持續得到彰顯。 [2] 總之,作為引領新一輪科技革命和產業變革(第四次工業革命)的戰略性技術,AI有望重塑人類經濟社會,對生產力、勞動就業、收入分配、全球化等都將帶來巨大影響。

**在此背景下,AI成為國際競爭的新焦點,全球各國紛紛出台AI發展戰略和具體政策,搶占戰略制高點和發展機遇。 **2017年7月,中國發布《新一代人工智能發展規劃》,AI上升為國家戰略;2018年4月,歐盟出台AI戰略,旨在讓歐盟成為世界級的AI中心並確保AI是以人為本的、可信的;2019年2月,《美國AI計劃》發布,啟動AI戰略,旨在提升美國在AI領域的領導地位;2021年9月,英國出台AI戰略,希望通過十年計劃把英國打造為AI超級大國。分析各國的AI戰略不難看出,AI領域的國際競爭不僅事關技術創新與產業經濟,而且牽涉AI治理等維度。隨著AI的廣泛應用,AI帶來的諸多科技倫理問題持續引起社會各界的高度關注,諸如算法歧視、信息繭房、不公平的AI決策、個人信息濫用和隱私侵犯、AI安全、算法黑箱、責任承擔、技術濫用(如大數據殺熟、AI造假和合成虛假信息)、工作和就業影響、倫理道德衝擊等風險挑戰。 [3] 因此,伴隨著過去十年AI技術發展應用的“高歌猛進”,國內外各界同步推進AI治理,探索立法、倫理框架、標準和認證、行業最佳做法等多元治理措施和保障機制,支持負責任的、可信的、以人為本的AI發展。

本文立足國際視野,梳理過去十年中國在AI治理領域的重要進展,分析總結其中的規律和趨勢,並展望未來發展。在可預見的未來,隨著AI的能力越來越強,其應用和影響將日益加深,因此,負責任的AI(Responsible AI)將變得越來越重要。而負責任的AI的推進和落實,離不開合理有效的AI治理。換句話說,建立健全AI治理,是邁向負責任AI、保障AI未來發展的必由之路。希冀本文對未來AI治理的持續開展和落地有所助益。

AI治理的八個趨勢

宏觀戰略與落地政策並舉,培育國家AI競爭力

自2013年2月發布的《關於推進物聯網有序健康發展的指導意見》提出“經濟社會智能化發展”以來,AI便進入國家宏觀戰略的視野,成為國家頂層政策文件的重要議題。例如,2015年《關於積極推進“互聯網+”行動的指導意見》首次提出“培育發展人工智能新興產業”。此後,國家對AI的重視程度不斷提高,持續在戰略層面對發展AI做出部署,確保實現核心技術自主可控,推進高水平科技自立自強(表1)。

落地政策同样重要。AI是新兴技术与新兴产业的综合体,AI技术创新只有转化为可持续的产业生态,并和实体经济深度融合,才能发挥好其作为新的增长引擎的强大作用。在这方面,试验区、先导区等先行先试模式发挥着重要作用。科技部着力推进的人工智能创新发展试验区建设成果显著,全国已经批复建设18个国家新一代人工智能创新发展试验区,在政策工具、应用模式、经验做法等方面起到了很好的引领带动作用。2019年至今,工信部批复建设11个国家人工智能创新应用先导区,促进AI和实体经济深度融合;2022年7月,科技部等六部门发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,着力解决AI应用和产业化问题,以“数据底座+算力平台+场景开放”三驾马车驱动AI与经济社会发展深度融合,更好支撑高质量发展。

在國家宏觀戰略和落地政策的持續支持下,中國AI領域的創新創業持續活躍,AI領域的國家級實驗室陸續建立,在AI領域的技術創新、產業應用、人才規模等方面均取得了重要成就。中國科學技術信息研究所發布的《2021全球人工智能創新指數報告》顯示,目前全球AI發展呈現中美兩國引領、主要國家激烈競爭的總體格局。 [4] 中国AI发展成效显著,AI创新水平已经进入世界第一梯队,与美国的差距进一步缩小。中国的超算中心、AI企业规模、专利注册数量、人才队伍建设和科研实力均处在全球领先行列,未来,AI对中国经济增长和社会发展的贡献将持续放大。普华永道的研究报告预测,全球来看,到2030年AI对全球经济的贡献将达到15.7万亿美元,中国将从AI中收获最大的经济收益,达到7万亿美元,意味着AI将推动中国GDP增长约26.1%;美国和北美其次,将达到3.7万亿美元。 [5]

科技倫理制度不斷完善,成為AI創新的重要保障

在數字時代,AI等新興數字技術,具有不同於工業時代的技術應用的獨特性和復雜性。主要體現為:(1)更廣泛的聯通性,網絡的連接和數據的收集、處理無處不在;(2)更強的自主性,AI系統驅動各種產品和服務獨立運行,無須人類干預; (3)更深的不透明性,AI系統的“算法黑箱”難以被理解和解釋; [6] (4)更高的擬真性,AI生成、合成的內容、數據和虛擬世界越來越逼近現實。正因如此,AI等新技術應用可能引發的社會倫理問題越來越具有突發性、隱蔽性、規模性、不可預測性等諸多特徵,這給科技倫理治理提出新的挑戰。在AI的發展應用過程中,同步考慮甚至提前考慮科技倫理問題變得越來越必要和重要。 [7] 科技倫理制度的調整完善,由此成為AI時代的重要議題,需要從關注人的倫理轉向關注技術的倫理,實施對智能體進行道德約束,構建友善的數字社會秩序。 [8] 更進一步而言,隨著全球科技競爭日益激化,科技倫理不僅事關科技安全風險挑戰之防範,而且關乎國家科技競爭力之打造。

**黨的十八大以來,國家對科技倫理的重視程度不斷提升,明確提出科技倫理是科技活動必須遵守的價值準則,並將科技倫理納入頂層政策設計,作為科技創新的重要支撐和保障。 **《中共中央關於堅持和完善中國特色社會主義制度推進國家治理體系和治理能力現代化若干重大問題的決定》和《十四五規劃和2035年遠景目標綱要》對科技倫理做出了頂層部署,要求健全科技倫理治理體制,健全科技倫理體系。目前,國家持續建立健全科技倫理制度,塑造科技向善的文化理念和保障機制。主要體現在以下三個方面:

**第一,組建國家科技倫理委員會,負責指導和統籌協調推進全國科技倫理治理體系建設工作。 **2019年7月,中央全面深化改革委員會第九次會議審議通過了《國家科技倫理委員會組建方案》,正式確立了中國國家級的科技倫理管理機構。 2022年3月發布的《關於加強科技倫理治理的意見》進一步明確了國家科技倫理委員會的管理職責。

**第二,出台科技倫理相關的政策法規,支持科技倫理治理落地實施。 **2021年12月修訂的《科學技術進步法》的一大亮點就是增加了科技倫理相關條款,一方面對健全科技倫理治理體製做出了整體規定,另一方面要求科學技術研究開發機構、高等學校、企業事業單位等主體履行科技倫理管理主體責任,對科學技術活動開展倫理審查,同時明確科學技術研究開發和應用活動的法律倫理底線。 《關於加強科技倫理治理的意見》則對科技倫理治理提出了更為全面的要求,涉及總體要求、原則、體制、制度保障、審查和監管以及教育和宣傳六大方面,為科技倫理治理的落地實施奠定了基礎。後續還將製定科技倫理審查辦法、科技倫理高風險科技活動清單、細分領域的科技倫理規範等配套規定。

**第三,強調AI領域的科技倫理治理。 **國家新一代人工智能治理專業委員會先後發布《新一代人工智能治理原則——發展負責任的人工智能》和《新一代人工智能倫理規範》,為發展負責任的AI提供倫理指南。 《數據安全法》《互聯網信息服務算法推薦管理規定》《關於加強互聯網信息服務算法綜合治理的指導意見》等法律法規,對數據和算法活動提出科技倫理要求和管理措施。 《關於加強科技倫理治理的意見》將AI、生命科學、醫學作為“十四五”期間的三個重點領域,要求制定專門的科技倫理規範、指南等,加強科技倫理立法,並要求相關行業主管部門推出科技倫理監管舉措。可以預見,未來AI領域的科技倫理監管將得到加強。此外,地方層面的立法如《深圳人工智能產業促進條例》和《上海促進人工智能產業發展條例》都把AI倫理治理作為支持AI產業健康發展的重要保障。

**从以上分析可以看出,目前在AI的科技伦理治理方面,一个显著的趋势是把创新主体的科技伦理管理主体责任作为一个主要的抓手,这和互联网平台监管强调平台主体责任具有一定的相似性。**政府对平台的监管,在很大程度上是通过落实、压实平台主体责任来实现的,网络领域的相关立法构建了事前、事中、事后全方位的平台义务体系,市场监管总局发布的《互联网平台落实主体责任指南(征求意见稿)》尝试对不同类型的平台的主体责任进行细化。政府对AI的监管,呈现出类似的思路。目前的相关政策法规尝试对科技伦理管理主体责任进行细化,要求创新主体建立伦理委员会、坚持科技伦理底线、进行科技伦理审查、开展科技伦理风险监测预警和评估、开展科技伦理培训等。

互聯網領域算法應用成為AI監管的重點對象

算法推薦、算法自動化決策、AI深度合成等互聯網領域的算法應用,由於應用廣泛、社會公眾關注度高、負面問題持續凸顯等因素,成為政府在AI領域重點監管的對象。近年來,國家出台了一系列法律法規,積極規範互聯網領域算法應用。 [9] 國家互聯網信息辦公室等九部門出台的《關於加強互聯網信息服務算法綜合治理的指導意見》提出了較為全面的管理要求,希望利用三年左右時間,逐步建立治理機制健全、監管體系完善、算法生態規範的算法安全綜合治理格局。該意見同樣強調強化企業主體責任,包括算法安全責任、科技倫理審查等。

在算法推薦方面,《網絡信息內容生態治理規定》提出針對算法推薦技術健全人工干預和用戶自主選擇機制。 2022年3月1日起施行的《互聯網信息服務算法推薦管理規定》則是中國第一部聚焦算法治理的立法,該規定針對算法推薦服務提供者提出全方位的義務和禁止性要求,提出算法安全風險監測、算法安全評估、算法備案管理等一系列監管舉措,進一步強化平台企業的算法安全責任。業內人士以此為標誌,將2022年稱為算法監管元年。

在算法自動化決策方面,《中華人民共和國個人信息保護法》《中華人民共和國電子商務法》《在線旅遊經營管理服務暫行規定》等都有相關條款對算法歧視、大數據殺熟等不公平、不正當的算法決策行為進行規制,提出了向個人提供選擇權限、開展影響評估、個人可以要求說明和享有拒絕權限等規制方式,更好地平衡個人權益保護和算法商業應用活動。

在AI深度合成(主要是指利用AI技術生成、合成信息內容)方面,相關立法積極為AI深度合成技術劃定應用紅線,促進技術正向應用,如《網絡音視頻信息服務管理規定》《網絡信息內容生態治理規定》《互聯網信息服務算法推薦管理規定》等都禁止將深度合成算法用於虛假新聞信息和其他違法違規活動。 2022年11月通過的《互聯網信息服務深度合成管理規定》,總結既往監管經驗,從深度合成服務提供者主體責任、深度合成信息內容標識管理等方面,對深度合成技術應用進行全面規範,通過內容標識、檢測識別、內容溯源等必要的安全保障措施確保深度合成技術應用安全可靠,更好地促進技術創新發展和積極正向應用。

整體而言,互聯網領域的算法監管強調安全可控、權益保護、公平公正、公開透明、濫用防範等多元目的,在算法應用分級分類基礎上,重點規制高風險類算法應用。算法分級分類監管和《歐盟人工智能法案》對AI系統的監管思路是類似的,後者按照不可接受風險、高風險、有限風險、最小風險對AI系統進行分級,並對不同風險程度的AI系統提出不同的監管要求。在此背景下,學界對算法治理的研究興趣濃厚,提出了算法解釋、算法影響評估、算法審計等諸多思路。未來,各界還需進一步探索完善算法監管的方式方法和治理舉措,更好地保障算法應用向上、向善。

以監管創新促進AI在傳統強監管領域應用落地

對於交通、醫療等傳統強監管領域而言,自動駕駛汽車、載人無人機(無人駕駛的飛行汽車)、AI醫療軟件等新生事物面臨的主要問題是,其商業化應用仍面臨較大的法律和監管障礙。這些障礙不僅影響消費者和公眾對技術的信任,而且打擊創新者和投資者的積極性。因此,有效的監管創新是這些新事物發展應用的關鍵所在。以自動駕駛汽車為例,只有加快革新旨在規制傳統汽車和人類司機的立法和監管框架,進而建立新的、有效的監管框架,才能加快實現自動駕駛汽車的商業化應用。

中國的政策制定者積極創新監管方式和手段,通過“監管沙盒”(Regulatory Sandbox,詳見後文介紹)、試點、示範應用等方式支持、促進AI新事物應用落地。在自動駕駛汽車領域,國家出台了一系列立法和規範性文件,鼓勵、支持和規範自動駕駛汽車道路測試與示範應用活動,探索自動駕駛汽車安全標準的“監管沙盒”,完善自動駕駛汽車準入和上路通行規則,保障自動駕駛汽車運輸安全。由於監管政策利好,北上廣深等各地紛紛搶占發展高地,部分城市已向自動駕駛廠商發放了允許車內無駕駛人、可以收費運營的無人駕駛汽車試運營牌照;深圳則在全國率先出台《深圳智能網聯汽車管理條例》,為商業化應用奠定立法和監管框架。在AI醫療領域,由於AI醫療軟件具有不同於傳統醫療器械的諸多全新特徵,包括自主性、學習進化能力、持續迭代性、算法黑箱、不可預測性等,這使得傳統審批程序難以有效適應AI醫療軟件的發展需求。為此,監管部門積極完善AI醫療器械的註冊申報和審批程序、使用管理規範,支持智能醫學影像等輔助診斷和輔助治療的AI醫療軟件加快臨床應用;目前國內已有AI醫療軟件獲得審批,如騰訊覓影的AI輔助診斷青光眼軟件、肺炎AI輔助診斷系統都已獲批第三類醫療器械註冊證(“三類證”)。未來,監管部門還需持續完善、優化針對AI醫療軟件的註冊申報和審批程序,讓AI醫療應用更好地增進民生福祉。

加快探索AI的知識產權保護規則

AI生成內容(AI-Generated Contents,縮寫AIGC)已經成為AI的新疆域,代表著AI的未來發展方向 [10] 。在互聯網領域,AIGC是PGC(專業生產內容)和UGC(用戶生產內容)之後的內容生產形態,帶來自動化內容生產的巨大變革。目前,AIGC技術已能自主生產多種形式的內容,包括文本、圖片、音頻、視頻、3D內容(3D物品、3D虛擬場景)等。 AIGC技術及其應用的知識產權保護規則由此成為繞不過去的重要議題,諸如“AIGC內容的著作權保護及歸屬如何確立”“AIGC技術使用他人版權內容是否侵權”等都是亟待解決的問題。 [11] 國外有學者提出,需要建立專門的AI知識產權保護規則和國際條約,因為AI技術打破了創作者和發明人只能是人類的既有模式。 [12]

國內外已在積極探索AI生成內容的知識產權保護規則。在國外,英國、歐盟、日本、南非等在考慮或者已經制定了專門的AI知識產權保護規則,如英國《版權、設計與專利法》中的計算機生成作品保護條款、歐盟《單一數字市場版權指令》中的基於AI技術的文本與數據挖掘版權例外條款等。在專利方面,英國的政策指出,由於AI還沒有先進到可以獨立自主地進行發明創造,所以當前還沒必要對專利法進行修改,但需密切關注技術進展並及時評估AI的專利問題。

在國內,北京菲林律師事務所訴百度“百家號”著作權侵權案中,法院雖然認為只有自然人創作完成的獨創性作品才可獲得版權保護,由此否定了AI直接且獨立生成的作品的版權保護可能性,但卻指出可以通過競爭法等方式對AI生成內容的相關權益(如競爭性權益)進行保護。深圳市騰訊計算機系統有限公司訴上海盈訊科技有限公司侵害著作權及不正當競爭糾紛案中,法院基於AI領域的人機協作現實,指出AI寫稿軟件Dream writer在技術上“生成”作品只是創作過程的一個環節,原告主持的多團隊、多人分工形成的整體智力活動才是創作的核心環節,並由此認定涉案文章是原告主持的法人作品。關於Dream writer案的認定更符合當前AIGC技術及其應用的發展狀況,對將來通過立法進一步明確AI生成內容的知識產權保護規則具有較大的借鑒意義。在立法上,2020年新修訂的《中華人民共和國著作權法》採用開放性的作品認定方式,在明確作品構成要件、列舉主要作品類型的同時,規定了開放式的兜底條款,為AIGC等新技術應用帶來的新客體保護預留出製度空間。

標準化建設是AI治理的關鍵一環

**《國家標準化發展綱要》指出,標準化在推進國家治理體系和治理能力現代化中發揮著基礎性、引領性作用。對於AI領域而言,AI標準不僅是支持、促進AI發展進步和廣泛應用的重要手段(如技術標準),而且是推進落實AI治理的有效方式(如治理標準、倫理標準),因為AI治理標準可以起到“承接立法和監管、對接技術實踐”的重要作用。再者,AI治理領域的標準相比立法和監管更具敏捷性、靈活性和適應性。因此,AI治理標準已經成為AI技術和產業發展中的一個制高點,國際社會紛紛提出落地舉措。 **典型代表有歐盟的可信AI標準,美國國家標準與技術研究院(NIST)主導的AI風險管理、AI歧視識別等治理標準,英國的AI認證生態系統發展規劃,IEEE的AI倫理標準等。在落地方面,IEEE已面向行業推出了AI倫理認證項目;英國希望通過5年時間培育一個世界領先、價值數十億英鎊規模的AI認證行業,通過中立第三方的AI認證服務(包括審計、影響評估、認證)來評估、交流AI系統的可信性和合規性。

**中國非常重視AI領域的標準化建設,《國家標準化發展綱要》要求在AI、量子信息、生物技術等領域,開展標準化研究。 **近年來,各界持續推進AI治理領域的國家標準、行業標準、地方標準、團體標準等標準化工作。例如,國家標準化管理委員會成立國家人工智能標準化總體組,全國信息技術標準化技術委員會設立人工智能分技術委員會,都旨在推進制定AI領域的國家標準。 2020年7月印發的《國家新一代人工智能標準體系建設指南》明確了AI標準領域的頂層設計,該指南將安全/倫理標準作為AI標準體系的核心組成部分,旨在通過安全/倫理標準為AI建立合規體系,促進AI健康、可持續發展。未來,AI治理相關標準需加快制定並落地實施,從而為AI領域的技術創新和產業發展提供更多保障。

行業主動探索AI治理的自律措施,踐行負責任創新和科技向善理念

**有效的AI治理需要政府、企業、行業組織、學術團體、用戶或消費者、社會公眾等多元主體的共同參與,其中,科技企業的自我治理和自律管理是落實“倫理先行”理念的重要方式。 **之所以呼籲“倫理先行”,在很大程度上是因為面對AI的快速發展,“法律的滯後性”現像變得越來越突出。在AI領域,“倫理先行”首先表現為科技企業的科技倫理自律管理,而且領先企業的最佳實踐做法往往能夠起到很好的引領帶動作用,推動整個行業踐行負責任創新和科技向善理念。

在行業層面,近年來,相關研究機構和行業組織紛紛提出AI的倫理指南、自律公約等,為企業的AI活動提供倫理指引。這方面的典型代表有中國人工智能產業發展聯盟(AIIA)的《人工智能行業自律公約》和《可信AI操作指引》、北京智源人工智能研究院的《人工智能北京共識》和《人工智能產業擔當宣言》、全國信息安全標準化委員會的《網絡安全標準實踐指南——人工智能倫理安全風險防範指引》等。

在企業層面,科技企業作為AI技術創新和產業應用的主體,擔負著負責任地研發應用AI的重要責任。在國外,從提出AI倫理原則,到成立內部的AI倫理治理機構,再到開發管理和技術工具甚至商業性的負責任AI解決方案,科技公司探索出了較為成熟的經驗,積累了很多可資推廣的實踐做法(表2) [13] 。近年來,國內科技公司積極落實監管要求,探索相關自律措施,主要包括:發布AI倫理原則,建立內部的AI治理組織(如倫理委員會),針對AI活動開展倫理審查或安全風險評估,對外披露算法相關信息、促進算法公開透明,探索應對AI倫理問題的技術解決方案(如針對合成信息內容的檢測識別工具、AI治理測評工具、聯邦學習等隱私計算方案),等等。

全球AI治理合作與競爭並存

**全球AI競爭,既是技術與產業的競爭,也是治理規則與標準的競爭。 **全球數字經濟發展正在形成AI、數據等方面新的國際規則,如數據流動、AI治理框架等。近年來,全球AI治理合作持續推進。 2019年的OECD/G20人工智能原則,是首個全球性的AI政策框架。 2021年11月聯合國UNESCO通過的全球首個AI倫理協議《人工智能倫理問題建議書》(RecommendationontheEthicsofArtificialIntelligence),則是目前最全面、具有廣泛共識的全球性AI政策框架,該建議書建議各國通過AI倫理官、倫理影響評估等機制來加強AI倫理治理。

與此同時,美歐加速推進AI政策,以期強化在AI政策領域的領導地位並影響全球AI治理規則與標準。例如,歐盟正在製定一部統一的AI法案,當其預期在2023年通過時,將建立全面的、基於風險的AI監管路徑。很多專家預測,正像之前的數據隱私立法GPDR對全球科技行業的影響那樣,歐盟AI法案將“布魯塞爾效應”延伸到AI領域,而這正是歐盟所希望的,即通過監管為全球樹立AI治理標準。 [14] AI立法之外,歐洲理事會還在醞釀全球第一個“國際AI公約”,正像之前的《網絡犯罪公約》和《隱私公約》那樣,成員國和非成員國都可以加入並批准將來的AI公約。 [15] 美國在技術和產業方面一直是AI領域的全球領導者,近年來開始積極重塑其在AI政策領域域的領導地位。 2020年成立的美歐貿易和技術理事會(US-EU Tradeand Technology Council)的一個核心任務就是推進美歐在AI治理方面的合作。 [16] 總之,全球AI競爭日益重視AI政策和治理領域的軟實力競爭,可以說是代表了21世紀科技競爭的一個重大轉變。

近年來,中國對參與全球科技治理高度重視,積極提出自己的主張,爭取更多認同與共識。例如,中國提出《全球數據安全倡議》,持續為全球數字治理注入正能量。 2022年11月,在聯合國《特定常規武器公約》締約國大會上,中國提交加強人工智能倫理治理立場的文件,提出堅持倫理先行、加強自我約束、負責任使用人工智能、鼓勵國際合作等主張。

三點展望

《“十四五”規劃和2035年遠景目標綱要》《法治中國建設規劃(2020—2025)》《關於加強科技倫理治理的意見》等諸多政策和規範性文件表明,AI治理持續成為科技治理和科技倫理的核心領域。中國進一步增進在AI領域的全球競爭力,不僅需要更加註重培育技術和產業硬實力,而且需要著力塑造軟實力,尤其是在AI政策和治理方面的話語權和領導地位。因為AI治理已經成為全球AI競爭力的重要組成部分。

回顧既往,中國已經明確了發展與安全並重、創新與倫理並行的AI監管和治理思路,在支持、促進創新發展的同時,保障技術應用的安全、可靠、可控。面向未來,我們需更好地發揮政府、行業/企業、研究機構、社會組織、用戶/消費者、社會公眾、媒體等多利益相關方的合力作用,持續推動AI治理實踐的良性發展,讓AI更好地造福經濟社會發展,增進民生福祉,把科技向善推向更高水平。

進一步而言,已經過去的AI“黃金十年”給人們帶來了日益強大的AI模型,而且在可預見的未來,AI只會變得更加強大。這意味著,AI在與社會生態系統互動過程中,可能帶來的人類的、社會的和環境的影響將遠超以往任何技術。因此,AI治理的首要任務是,持續倡導並踐行“負責任AI”的理念;“負責任AI”必須是以人為本的,要求在設計、開發、部署AI的技術實踐中秉持善意,增進對技術的信任,給利益相關方創造價值並增進其福祉,防範濫用、誤用和惡用。總之,有效的AI治理需要推動負責任AI實踐走向深入,打造可信AI(Trustworthy AI)。

持續完善數據與AI法律框架,推進精準敏捷監管

AI的健康可持續發展,一方面離不開合理有效的監管,另一方面需要持續提升AI領域的數據供給和流通利用水平。實際上,AI在醫療、製造、金融等諸多領域的發展應用,所面臨的一個主要問題就是數據獲取利用問題,包括數據難以獲取、數據質量差、數據標準不統一等。因此,未來AI的進一步發展,在很大程度上依賴於對數據與AI法律框架的持續完善。英國的《數字監管計劃》提出,設計優良的監管,對於推動發展、塑造生機勃勃的數字經濟和社會可以產生強大的效應,但是設計糟糕或者限制性的監管則會阻礙創新。正確的規則可以幫助人們信任他們所使用的產品服務,這反過來會推動產品服務的普及以及進一步消費、投資和創新。 [17] 對於AI而言也是如此。

**一方面,對於AI治理,需要更好地推進精準敏捷監管。 **這包括:**第一,針對不同的AI產品、服務和應用採取不同的規則。 **因為現在AI應用幾乎無處不在,一刀切似的規則難以合理適應不同行業和領域中AI應用的獨特特徵及其對個人和社會的影響。這要求我們採取基於風險的AI治理政策框架。例如,同樣的AI技術既能用來分析、預測用戶的人身屬性和個人偏好並進行個性化的內容推送,也可以用來輔助疾病診斷和治療;計算機視覺技術既能用來對手機相冊進行自動分類和整理,又能用來識別癌症腫瘤。這些應用在風險等級、結果重要性、個人和社會影響等方面存在巨大差異,如果籠統、一刀切地提出監管要求,顯然既不科學,也不現實。 **第二,強調在對AI應用進行分級分類基礎上,採取分散式、差異化監管。 **就像互聯網一樣,AI是很寬泛、很通用的技術,不適宜也難以進行統一監管。國外來看,目前只有歐盟嘗試針對所有AI應用建立一個統一的、一般化的監管框架(歐盟模式),英國、美國則強調基於應用場景和風險的行業分散監管(英美模式)。英國提出以原則為指導,對AI應用採取促創新的監管,其核心理念包括:聚焦具體應用場景,基於風險大小,確保監管的相稱性和適應性; [18] 美國一貫強調行業監管和行業自律相結合的治理路徑,如《AI權利法案藍圖》在提出5項原則的同時,明確了行業主管部門牽頭、應用場景導向的分散化監管思路。 [19] 就中國而言,過去對AI所採取的立法和監管更接近於英美模式,即針對算法推薦服務、深度合成、自動駕駛等不同AI應用分別制定監管規則。這種分散式、差異化的監管模式符合敏捷治理原則,能更好地適應AI技術及其應用快速發展迭代的複雜特徵。 **第三,呼籲不斷創新監管工具箱,採取多元化的監管舉措。一是AI“監管沙盒”。 **歐盟在AI監管方面的一大創舉就是提出了AI“監管沙盒”。 [20] “監管沙盒”作為支持、促進監管者和創新主體之間溝通協作的有效方式,可以提供一個受控的環境來合規地研發、測試、驗證創新性的AI應用。從“監管沙盒”中產生的最佳實踐做法和實施指南,將有助於企業尤其是中小微企業和創業公司落實監管規則。 **二是AI治理社會化服務,包括AI治理標準、認證、檢測、評估、審計等。 **在網絡安全領域,網絡安全認證、檢測和風險評估等網絡安全社會化服務,是落實監管要求的重要方式。 AI治理完全可以藉鑑這一方式。當前,歐盟、英國、美國以及IEEE等都在推進AI治理社會化服務。例如,IEEE已面向行業推出了AI倫理認證; [21] 英國發布的《建立有效AI認證生態系統的路線圖》希望培育一個世界領先的AI認證行業,通過中立第三方的AI認證服務(包括影響評估、偏見審計和合規審計、認證、合規性評估、性能測試等)來評估、交流AI系統的可信性和合規性。英國認為這將是一個價值數十億英鎊的新行業。 [22] 中國需要加快建立健全AI治理社會化服務體系,通過下游的AI治理服務更好地承接、落實上游的立法和監管要求。此外,政策指南、責任安全港、試點、示範應用、事後追責等監管方式,在不同應用場景下都可發揮重要作用。

**另一方面,需要加快完善數據流通利用的法律框架,持續提升AI領域的數據供給水平。 **一是在國家層面構建公共數據開放共享的法律框架,統一數據質量和數據治理標準,通過數據下載、API接口、隱私計算(聯邦學習、安全多方計算、安全可信計算環境等)、數據空間(Data Space)等多元化的管理和技術方式,促進公共數據最大化開放共享。二是積極掃除隱私計算技術、合成數據技術發展應用所面臨的各種障礙。目前,在各類數據的流通利用方面,聯邦學習等隱私計算技術發揮著越來越重要的作用,可以實現“數據可用/可算不可見”“數據不動算法/價值動”等效果。受到AI和大數據應用發展的驅動,聯邦學習作為隱私計算領域主要推廣和應用的方法,是目前最為成熟的技術路徑。下一步可以通過構建戰略性領域的數據空間、制定隱私計算行業標準、出台法律層面的隱私計算技術實施指南等方式,更好地支持聯邦學習等隱私計算技術的應用發展。

AI倫理治理需從原則邁向實踐

隨著科技倫理治理的建制化和法治化發展,對於科技企業而言,加強科技倫理治理已是“必選項”和“必答題”之一。在“倫理先行”理念之下,科技倫理治理要求意味著,科技企業不能寄希望於以事後補救的方式來應對AI倫理問題,而是需要在從設計到開發、再到部署的整個AI生命週期中,積極主動地履行科技倫理管理主體責任,以多種方式創新性地推進科技倫理自律。整體而言,在一個高度技術化、數字化的社會,科技企業需要考慮將AI治理整體納入其公司治理版圖,作為與法務、財務、風控等既有模塊同等重要的模塊。以下幾個方面值得進一步探索:

**首先,在管理上,要建立AI倫理風險管理機制。 **AI倫理風險管理需要貫穿AI全生命週期,包括預設計階段、設計開發階段、部署階段以及貫穿這幾個階段的測試和評估活動,以全面識別、分析、評估、管理、治理AI倫理風險。這有賴於企業建立相應的組織架構和管理規範,如倫理委員會、倫理審查流程和其他管理工具。政策制定者可以考慮出台這方面的政策指南。

其次,在設計上,需遵循以人為本的設計理念,踐行“倫理嵌入設計”**(Ethicsby Design)理念。 **倫理嵌入設計意味著,將倫理價值、原則、要求和程序融入AI、機器人和大數據系統的設計、開發、部署過程。企業需要反思技術人員主導的AI研發應用過程,更多地強調AI研發應用活動的多元背景和多元參與。將政策、法律、倫理、社會、哲學等多學科、跨學科人員引入技術開發團隊,是將倫理要求嵌入技術設計開發最直接、有效的方式。未來,政策制定者可以攜手行業總結經驗教訓,出台倫理嵌入設計的技術指南、最佳實踐做法等文件。

**最後,在技術上,需要持續探索以技術化方式和市場化路徑應對AI倫理問題,打造可信AI應用。 **一是AI倫理工具。 AI應用的很多問題諸如可解釋性、公平性、安全性、隱私保護等,都是可以通過技術創新手段來解決的。業界圍繞這些問題,已經探索出一些AI倫理工具和AI審計工具,未來這個方面的工作還需繼續深入開展。二是AI倫理服務(AIEthicsasa Service)。 [23] 它是市場化的路徑,AI倫理領先企業和AI倫理創業公司開發以AI倫理工具及服務為核心的負責任AI解決方案,作為商業服務對外提供。 [24] 研究諮詢公司Forrester預測,會有越來越多的AI科技企業、應用AI的其他領域企業採購負責任AI解決方案來幫助其落實公平和透明的AI倫理原則,AI倫理服務市場規模將翻倍。三是AI倫理賞金(AI Ethics Bounty)等技術眾包方式。類似於互聯網企業廣泛採用的網絡安全漏洞賞金(Bug bounty),算法歧視賞金(Algorithmic Bias Bounty)等技術眾包方式,在發現、識別、解決AI倫理問題,開發AI審計工具,打造可信AI應用上將發揮重要作用。 Twitter、斯坦福大學等國外一些企業和大學研究機構已開展了算法歧視賞金挑戰賽、AI審計挑戰賽,呼籲參與者開發工具來識別、減輕AI模型中的算法歧視。通過這些技術眾包方式培育、壯大AI倫理社群,將在AI治理中扮演重要角色。

全球AI治理合作需持續深化

如前所述,全球AI治理呈現競爭態勢,這並不符合以人為本、技術開放共享、普惠發展等理念。各國需要在國際AI治理方面持續深化合作,推動制定AI倫理和治理的國際協議,形成具有廣泛共識的國際AI治理框架、標準規範,增進技術、人才、產業等方面的交流與協作,反對排斥主義,推動技術普惠和科技向善,實現各國普惠發展。中國深度參與全球科技治理,需要抓住AI、數據等領域的新一輪國際規則制定機遇,不斷提出符合全球共識的AI治理方案,持續為全球數字治理和AI治理注入中國智慧。同時,我們需要增強國際發聲,把自己的理念、主張、做法等融入國際社會,爭取更多認同與共識,增強話語權和影響力。

面向未來,隨著AI技術的不斷發展,AI將變得越來越強大,未來可能出現通用AI(Artificial General Intelligence,縮寫AGI)。通用AI將具備與人類同等水平的智慧,可以執行人類能夠執行的任何智力任務。理論上,通用AI可能設計出更高級別的智能,帶來智能大爆炸,也就是所謂的“奇點”,產生超級智能。從現在的AI應用到將來的AGI,可能是一個從量變到質變的飛躍。這引發了人們對AGI取代人類工作、失控甚至威脅人類生存的擔憂。因此,對於通用AI發展及其潛在的安全、倫理等問題,全球需未雨綢繆,通力合作,確保AI技術更普惠、安全可靠、可控地發展,造福全人類。

本文首發於《上海師範大學學報(哲學社會科學版)》2023年第4期

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)