●一、全球人工智能監(jiān)管格局●
目前,立法機構(gòu)對監(jiān)管人工智能的興趣日益濃厚,根據(jù)斯坦福大學(xué)以人為本人工智能研究所(Stanford HAI)最近發(fā)布的一份報告,從2016年到2023年,32個國家通過了148項有關(guān)人工智能的法律。2023年,48個國家的立法機構(gòu)在聽證會和會議上提到了這一術(shù)語。此外,2024年7月13日,《人工智能法案》在《歐盟官方公報》上公布。
●二、新出現(xiàn)的人工智能監(jiān)管方法●
全球人工智能治理框架由不同的利益相關(guān)者和機構(gòu)安排組成,規(guī)定了如何開發(fā)和使用人工智能系統(tǒng)。它們包括有約束力(如條約、合同)和無約束力的文書(如指南、標準)。例如,聯(lián)合國教科文組織的《人工智能倫理問題建議書》,旨在確保人工智能治理促進負責(zé)任、合乎倫理和尊重人權(quán)的人工智能系統(tǒng)開發(fā)和采用。此外,聯(lián)合國大會最近通過了兩項有助于人工智能全球治理建設(shè)的重要決議:2024年3月21日《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機遇,促進可持續(xù)發(fā)展》決議和2024年7月1日《加強人工智能能力建設(shè)國際合作》決議。
下面介紹受人工智能治理框架影響的9種監(jiān)管方法。在對人工智能進行監(jiān)管時,可以將不同的方法結(jié)合起來。大多數(shù)人工智能法規(guī)都綜合使用了這幾種方法。
2.1 基于原則的方法
基于原則的方法為利益相關(guān)者提供了一套基本原則,為通過合乎道德、以人為本和尊重人權(quán)的程序開發(fā)和使用人工智能系統(tǒng)提供指導(dǎo)。例如聯(lián)合國教科文組織的《人工智能倫理問題建議書》和聯(lián)合國經(jīng)濟合作與發(fā)展組織(OECD)的《人工智能原則》。基于原則的方法并不對公共機構(gòu)、私人組織或個人規(guī)定具體的義務(wù)或限制,也不規(guī)定不遵守的后果。法律主體可自行判斷如何根據(jù)原則調(diào)整自己的行為。然而,基于原則的方法可以與其他規(guī)定了具體的義務(wù)和權(quán)利的監(jiān)管方法相結(jié)合。
2.2 基于標準的方法
基于標準的方法將國家的監(jiān)管權(quán)力下放給標準制定機構(gòu),這些機構(gòu)可以是公共、私營或混合機構(gòu)。這種方法使專業(yè)和行業(yè)組織可直接或間接參與制定有關(guān)程序和活動的技術(shù)標準。人工智能標準中心(AI Standards Hub)已經(jīng)確定了近300項人工智能相關(guān)標準,這些標準涉及眾多領(lǐng)域,如人工智能采購、人權(quán)、以人為本的設(shè)計、人工智能的發(fā)展和應(yīng)用。
2.3 基于實驗主義的方法
在電信和金融等不同經(jīng)濟部門以及數(shù)據(jù)保護、隱私法和公共采購等橫向立法中,已采用靈活制定的監(jiān)管方法。監(jiān)管沙盒(Regulatory Sandboxes)的主要目標是為公共和私營組織創(chuàng)造測試新商業(yè)模式的空間。最近,這種方法也被用于人工智能監(jiān)管。如歐盟的《人工智能法案》,該法案建立了人工智能監(jiān)管沙盒的創(chuàng)建框架。此外,英國的《支持創(chuàng)新的人工智能監(jiān)管方法》提案還包括開發(fā)沙盒和測試平臺。
2.4 基于促進和扶持的方法
基于促進和扶持的方法旨在促進和營造一種環(huán)境,鼓勵私營和公共部門開發(fā)和使用負責(zé)任的、符合道德和人權(quán)的人工智能系統(tǒng)。例如,在這方面,聯(lián)合國教科文組織制定了準備情況評估方法(RAM),旨在幫助各國了解自己在為其所有公民實施人工智能方面的準備程度,并在此過程中強調(diào)需要進行哪些體制和監(jiān)管變革。
2.5 基于調(diào)整現(xiàn)有法律的方法規(guī)則
一些地區(qū)傾向于調(diào)整特定部門的規(guī)則(如衛(wèi)生、金融、教育、司法)和橫向規(guī)則(如刑法、數(shù)據(jù)保護法、勞動法),而不是發(fā)布人工智能法案。這種方法的一個潛在好處是,它允許立法者根據(jù)他們對人工智能的了解,討論并逐步改進監(jiān)管框架。適應(yīng)橫向規(guī)則的一個例子是哥倫比亞參議院的第225/2024號法案,該法案將修改《刑法典》,以加重對人工智能系統(tǒng)(例如,通過深度偽造)冒名頂替罪(the crime of impersonation)的處罰。
2.6 基于信息透明度的方法
要使用這一方法,需采用透明披露的基本信息。披露信息的范圍可包括人工智能系統(tǒng)生命周期的各個方面,包括模型是如何開發(fā)的、使用了哪些數(shù)據(jù)對其進行訓(xùn)練、系統(tǒng)如何運行、系統(tǒng)的性能、系統(tǒng)對其支持的程序有哪些影響、人們?nèi)绾螌Ω鶕?jù)系統(tǒng)輸入信息做出的決定進行質(zhì)疑等等。例如,歐盟《人工智能法案》第50條規(guī)定了人工智能系統(tǒng)提供商的透明度義務(wù),旨在確保與自然人直接互動的人工智能系統(tǒng)的設(shè)計和開發(fā)方式應(yīng)使相關(guān)自然人知曉他們正在與人工智能系統(tǒng)互動。該條款還規(guī)定了用戶的義務(wù),如果部署的人工智能系統(tǒng)“生成或處理構(gòu)成深度偽造的圖像、音頻或視頻內(nèi)容,應(yīng)披露該內(nèi)容是人工生成或處理的”或“生成或處理以向公眾通報公共利益事項為目的而發(fā)布的文本,應(yīng)披露該文本是人工生成或處理的”。
2.7 基于風(fēng)險的方法
基于風(fēng)險的方法旨在根據(jù)各方對監(jiān)管機構(gòu)實現(xiàn)其目標所帶來的風(fēng)險的評估,確定監(jiān)管行動的優(yōu)先次序。這種監(jiān)管方法已在不同部門實施,包括環(huán)境部門、稅收部門、食品安全部門和消費者保護部門。基于風(fēng)險的方法側(cè)重于預(yù)防問題和控制與使用人工智能系統(tǒng)相關(guān)的風(fēng)險。因此,其目的是根據(jù)不同類型的人工智能系統(tǒng)所造成的風(fēng)險程度來調(diào)整法規(guī)的義務(wù)或要求。該方法根據(jù)風(fēng)險水平,確定目標的優(yōu)先次序,區(qū)分風(fēng)險類型,并選擇干預(yù)措施。這種監(jiān)管方法的一個例子是歐盟的《人工智能法案》。該法規(guī)定了基于不同風(fēng)險等級的義務(wù):不可接受風(fēng)險、高風(fēng)險、系統(tǒng)性風(fēng)險、有限風(fēng)險和最低風(fēng)險。與歐盟的《人工智能法案》類似,世界各國的立法機構(gòu)也在討論以風(fēng)險為基礎(chǔ)的人工智能法案。例如,巴西、智利、哥倫比亞和厄瓜多爾的人工智能法案包含了“不可接受”和“高”風(fēng)險類別,完全或部分采用了屬于這一類別的人工智能系統(tǒng)清單,并包括了一些針對高風(fēng)險人工智能系統(tǒng)的義務(wù)。
2.8 基于權(quán)利的方法
基于權(quán)利的方法旨在確保人工智能法規(guī)保護個人的權(quán)利和自由,強調(diào)人權(quán)。這種方法假定,市場失靈不是監(jiān)管的唯一理由,監(jiān)管的合理性在于保護權(quán)利、促進分配公正和推進社會目標。基于權(quán)利的方法制定了強制性規(guī)則,以保證在人工智能系統(tǒng)的生命周期內(nèi)尊重、保護和促進權(quán)利,包括人權(quán)和其他經(jīng)濟或社會權(quán)利。例如,《通用數(shù)據(jù)保護條例》(GDPR)中與使用自動決策系統(tǒng)(ADM)處理個人數(shù)據(jù)相關(guān)的規(guī)則。只要這些系統(tǒng)被用于處理個人數(shù)據(jù),就會被普遍強制執(zhí)行。
2.9 基于責(zé)任的方法
這種方法旨在規(guī)定強制性行為標準以刑事、行政或民事責(zé)任為后盾。在這種監(jiān)管方法中,法律的力量被用來禁止某些形式的行為,要求采取某些積極行動,或規(guī)定進入某個行業(yè)的條件。例如,歐盟的《人工智能法案》規(guī)定了適用于違反該法規(guī)的處罰措施。此外,歐洲議會正在審議關(guān)于人工智能造成傷害的民事責(zé)任新規(guī)定的提案。