當前位置:首頁(yè) > 百科 > 正文內容

吉印通國教科文組織發(fā)布!《全球9大新興的人工智能監管方法》

印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

2024年8月16日,吉印通國教科文組織(UNESCO)發(fā)布《全球9大新興的人工智能監管方法》,報告探討了全球立法機構正在審議的關(guān)于人工智能的不同監管方法。元戰略編譯報告主要內容,以期為讀者介紹全球9大新興的人工智能監管方法。

●一、全球人工智能監管格局●

目前,立法機構對監管人工智能的興趣日益濃厚,根據斯坦福大學(xué)以人為本人工智能研究所(Stanford HAI)最近發(fā)布的一份報告,從2016年到2023年,32個(gè)國家通過(guò)了148項有關(guān)人工智能的法律。2023年,48個(gè)國家的立法機構在聽(tīng)證會(huì )和會(huì )議上提到了這一術(shù)語(yǔ)。此外,2024年7月13日,《人工智能法案》在《歐盟官方公報》上公布。

●二、新出現的人工智能監管方法●

全球人工智能治理框架由不同的利益相關(guān)者和機構安排組成,規定了如何開(kāi)發(fā)和使用人工智能系統。它們包括有約束力(如條約、合同)和無(wú)約束力的文書(shū)(如指南、標準)。例如,吉印通國教科文組織的《人工智能倫理問(wèn)題建議書(shū)》,旨在確保人工智能治理促進(jìn)負責任、合乎倫理和尊重人權的人工智能系統開(kāi)發(fā)和采用。此外,吉印通國大會(huì )最近通過(guò)了兩項有助于人工智能全球治理建設的重要決議:2024年3月21日《抓住安全、可靠和值得信賴(lài)的人工智能系統帶來(lái)的機遇,促進(jìn)可持續發(fā)展》決議和2024年7月1日《加強人工智能能力建設國際合作》決議。

下面介紹受人工智能治理框架影響的9種監管方法。在對人工智能進(jìn)行監管時(shí),可以將不同的方法結合起來(lái)。大多數人工智能法規都綜合使用了這幾種方法。

2.1 基于原則的方法

基于原則的方法為利益相關(guān)者提供了一套基本原則,為通過(guò)合乎道德、以人為本和尊重人權的程序開(kāi)發(fā)和使用人工智能系統提供指導。例如吉印通國教科文組織的《人工智能倫理問(wèn)題建議書(shū)》和吉印通國經(jīng)濟合作與發(fā)展組織(OECD)的《人工智能原則》。基于原則的方法并不對公共機構、私人組織或個(gè)人規定具體的義務(wù)或限制,也不規定不遵守的后果。法律主體可自行判斷如何根據原則調整自己的行為。然而,基于原則的方法可以與其他規定了具體的義務(wù)和權利的監管方法相結合。

2.2 基于標準的方法

基于標準的方法將國家的監管權力下放給標準制定機構,這些機構可以是公共、私營(yíng)或混合機構。這種方法使專(zhuān)業(yè)和行業(yè)組織可直接或間接參與制定有關(guān)程序和活動(dòng)的技術(shù)標準。人工智能標準中心(AI Standards Hub)已經(jīng)確定了近300項人工智能相關(guān)標準,這些標準涉及眾多領(lǐng)域,如人工智能采購、人權、以人為本的設計、人工智能的發(fā)展和應用。

2.3 基于實(shí)驗主義的方法

在電信和金融等不同經(jīng)濟部門(mén)以及數據保護、隱私法和公共采購等橫向立法中,已采用靈活制定的監管方法。監管沙盒(Regulatory Sandboxes)的主要目標是為公共和私營(yíng)組織創(chuàng )造測試新商業(yè)模式的空間。最近,這種方法也被用于人工智能監管。如歐盟的《人工智能法案》,該法案建立了人工智能監管沙盒的創(chuàng )建框架。此外,英國的《支持創(chuàng )新的人工智能監管方法》提案還包括開(kāi)發(fā)沙盒和測試平臺。

2.4 基于促進(jìn)和扶持的方法

基于促進(jìn)和扶持的方法旨在促進(jìn)和營(yíng)造一種環(huán)境,鼓勵私營(yíng)和公共部門(mén)開(kāi)發(fā)和使用負責任的、符合道德和人權的人工智能系統。例如,在這方面,吉印通國教科文組織制定了準備情況評估方法(RAM),旨在幫助各國了解自己在為其所有公民實(shí)施人工智能方面的準備程度,并在此過(guò)程中強調需要進(jìn)行哪些體制和監管變革。

2.5 基于調整現有法律的方法規則

一些地區傾向于調整特定部門(mén)的規則(如衛生、金融、教育、司法)和橫向規則(如刑法、數據保護法、勞動(dòng)法),而不是發(fā)布人工智能法案。這種方法的一個(gè)潛在好處是,它允許立法者根據他們對人工智能的了解,討論并逐步改進(jìn)監管框架。適應橫向規則的一個(gè)例子是哥倫比亞參議院的第225/2024號法案,該法案將修改《刑法典》,以加重對人工智能系統(例如,通過(guò)深度偽造)冒名頂替罪(the crime of impersonation)的處罰。

2.6 基于信息透明度的方法

要使用這一方法,需采用透明披露的基本信息。披露信息的范圍可包括人工智能系統生命周期的各個(gè)方面,包括模型是如何開(kāi)發(fā)的、使用了哪些數據對其進(jìn)行訓練、系統如何運行、系統的性能、系統對其支持的程序有哪些影響、人們如何對根據系統輸入信息做出的決定進(jìn)行質(zhì)疑等等。例如,歐盟《人工智能法案》第50條規定了人工智能系統提供商的透明度義務(wù),旨在確保與自然人直接互動(dòng)的人工智能系統的設計和開(kāi)發(fā)方式應使相關(guān)自然人知曉他們正在與人工智能系統互動(dòng)。該條款還規定了用戶(hù)的義務(wù),如果部署的人工智能系統“生成或處理構成深度偽造的圖像、音頻或視頻內容,應披露該內容是人工生成或處理的”或“生成或處理以向公眾通報公共利益事項為目的而發(fā)布的文本,應披露該文本是人工生成或處理的”。

2.7 基于風(fēng)險的方法

基于風(fēng)險的方法旨在根據各方對監管機構實(shí)現其目標所帶來(lái)的風(fēng)險的評估,確定監管行動(dòng)的優(yōu)先次序。這種監管方法已在不同部門(mén)實(shí)施,包括環(huán)境部門(mén)、稅收部門(mén)、食品安全部門(mén)和消費者保護部門(mén)。基于風(fēng)險的方法側重于預防問(wèn)題和控制與使用人工智能系統相關(guān)的風(fēng)險。因此,其目的是根據不同類(lèi)型的人工智能系統所造成的風(fēng)險程度來(lái)調整法規的義務(wù)或要求。該方法根據風(fēng)險水平,確定目標的優(yōu)先次序,區分風(fēng)險類(lèi)型,并選擇干預措施。這種監管方法的一個(gè)例子是歐盟的《人工智能法案》。該法規定了基于不同風(fēng)險等級的義務(wù):不可接受風(fēng)險、高風(fēng)險、系統性風(fēng)險、有限風(fēng)險和最低風(fēng)險。與歐盟的《人工智能法案》類(lèi)似,世界各國的立法機構也在討論以風(fēng)險為基礎的人工智能法案。例如,巴西、智利、哥倫比亞和厄瓜多爾的人工智能法案包含了“不可接受”和“高”風(fēng)險類(lèi)別,完全或部分采用了屬于這一類(lèi)別的人工智能系統清單,并包括了一些針對高風(fēng)險人工智能系統的義務(wù)。

2.8 基于權利的方法

基于權利的方法旨在確保人工智能法規保護個(gè)人的權利和自由,強調人權。這種方法假定,市場(chǎng)失靈不是監管的唯一理由,監管的合理性在于保護權利、促進(jìn)分配公正和推進(jìn)社會(huì )目標。基于權利的方法制定了強制性規則,以保證在人工智能系統的生命周期內尊重、保護和促進(jìn)權利,包括人權和其他經(jīng)濟或社會(huì )權利。例如,《通用數據保護條例》(GDPR)中與使用自動(dòng)決策系統(ADM)處理個(gè)人數據相關(guān)的規則。只要這些系統被用于處理個(gè)人數據,就會(huì )被普遍強制執行。

2.9 基于責任的方法

這種方法旨在規定強制性行為標準以刑事、行政或民事責任為后盾。在這種監管方法中,法律的力量被用來(lái)禁止某些形式的行為,要求采取某些積極行動(dòng),或規定進(jìn)入某個(gè)行業(yè)的條件。例如,歐盟的《人工智能法案》規定了適用于違反該法規的處罰措施。此外,歐洲議會(huì )正在審議關(guān)于人工智能造成傷害的民事責任新規定的提案。

●三、建議●

3.1 為什么要監管?

需根據具體情況而定,同時(shí)取決于制度、法律、政治、經(jīng)濟、社會(huì )和文化因素。圖1列出了有必要進(jìn)行監管三個(gè)主要原因。

圖1-進(jìn)行監管的理由

3.2 何時(shí)監管?

需評估是否就為何需要監管達成共識,并將監管手段與其他政策手段進(jìn)行對比,并評估采用前者的可行性。

3.3 如何監管?

一旦解決了為什么監管和何時(shí)監管的問(wèn)題,就應該確定適合具體情況的人工智能監管方法組合。 為此,政策制定者可考慮對其監管程序提出以下建議:

(1)人權與數字?zhù)櫆?/p>

人工智能系統是強大的工具,可能產(chǎn)生巨大的效益,也可能造成嚴重的負面外部效應,包括社會(huì )、經(jīng)濟和環(huán)境外部效應。此外,這些工具的各種正面和負面影響并不一定在人群中均勻分布。事實(shí)上,由于國家內部存在數字?zhù)櫆希?開(kāi)發(fā)和使用特定的人工智能系統可能會(huì )為少數有權有勢的人帶來(lái)巨大回報,同時(shí)也會(huì )對普通民眾和邊緣化人群產(chǎn)生重大不利影響。為此,政策制定者應討論和探索旨在解決公共問(wèn)題和應對和人權與數字?zhù)櫆嫌嘘P(guān)的挑戰的監管工具。

a. 基于性別和種族的歧視可能是由人工智能造成的,例如系統在招聘人才時(shí)復制、強化和加劇了社會(huì )偏見(jiàn)。

b. 基于性別的暴力,例如通過(guò)制作和傳播帶有性暗示的虛假信息。

c. 傳播錯誤信息,尤其是關(guān)于民主、選舉和政治進(jìn)程的錯誤信息,而生成式人工智能媒體的出現則為這種傳播提供了便利。

e. 公共和私營(yíng)組織在使用ADM系統方面缺乏問(wèn)責制。

f. 獲取和使用人工智能系統的障礙,特別是對低收入家庭和殘疾人而言。

g. 致命自主武器系統的擴散。

h. 環(huán)境影響和可持續性。

i. 數據的獲取。

j. 語(yǔ)言多樣性。

k. 能力建設/掃盲。

(2)靈活監管

人工智能系統和其他新興數字技術(shù)的快速發(fā)展要求考慮靈活的監管安排。沙盒和測試平臺需成為決策者可用的靈活監管的一部分,以適應技術(shù)創(chuàng )新的快速發(fā)展。政策制定者們可借鑒各個(gè)國家的沙盒經(jīng)驗。

(3)參與性和包容性強的立法程序

政策制定者需將來(lái)自組織、政府官員以及可能受人工智能影響的個(gè)人和社區群體的不同觀(guān)點(diǎn)納入考量,而不是僅在“專(zhuān)家”的支持下起草法規。

(4)探索應對特定政策挑戰的監管工具

(5)最佳實(shí)踐

找出最佳實(shí)踐,不僅包括實(shí)質(zhì)性實(shí)踐,也包括與流程相關(guān)的實(shí)踐,例如加強多方利益相關(guān)者對監管流程的參與。如吉印通國教科文組織出版了一份題為《多方利益相關(guān)者人工智能發(fā)展:包容性政策設計的10個(gè)組成部分》的指南,為政策制定者提供了通過(guò)吸引多方利益相關(guān)者參與來(lái)制定和實(shí)施包容性人工智能公共政策的指導。呼吁找出“最佳實(shí)踐”并不意味著(zhù)政策制定者在沒(méi)有考慮當地環(huán)境和需求的情況下移植外國政策和程序。 相反,最佳實(shí)踐可以包括:

a. 確定與開(kāi)發(fā)和使用人工智能系統相關(guān)的具體問(wèn)題和挑戰,并對其進(jìn)行診斷。

b. 確定各國應建設的機構能力,以營(yíng)造有利于人工智能開(kāi)發(fā)和使用的環(huán)境,并執行法律。

c. 了解將受到監管的技術(shù)的生命周期。

d. 考慮從說(shuō)服到強制的各種監管工具。

e. 關(guān)注實(shí)施過(guò)程中的挑戰,并考慮針對具體情況的解決方案。

f. 監測法規的結果和影響,并通過(guò)靈活的方法對新的法規迭代持開(kāi)放態(tài)度。

g. 創(chuàng )建多方利益相關(guān)者的人工智能法規討論場(chǎng)所。

●四、總結●

本文介紹了人工智能監管的全球格局,并解釋了9種新出現的人工智能監管方法,同時(shí)提供了來(lái)自不同國家的具體案例,以說(shuō)明每種方法。并針對為何監管、何時(shí)監管、如何監管?三個(gè)問(wèn)題提出了建議。上述介紹的9種人工智能監管方法并不是互相排斥的,而是可以結合在一項或多項立法中。政策制定者需根據具體國情制定監管規則,以應對本國特定的需求和挑戰。

免責聲明:本文轉自元戰略。 文章內容系原作者個(gè)人觀(guān)點(diǎn),本*編譯/轉載僅為分享、傳達不同觀(guān)點(diǎn),如有任何異議,歡迎聯(lián)系我們!

轉自丨元戰略

研究所簡(jiǎn)介

國際技術(shù)經(jīng)濟研究所(IITE)成立于1985年11月,是隸屬于國務(wù)院發(fā)展研究中心的非營(yíng)利性研究機構,主要職能是研究我國經(jīng)濟、科技社會(huì )發(fā)展中的重大政策性、戰略性、前瞻性問(wèn)題,跟蹤和分析世界科技、經(jīng)濟發(fā)展態(tài)勢,為中央和有關(guān)部委提供決策咨詢(xún)服務(wù)。“全球技術(shù)地圖”為國際技術(shù)經(jīng)濟研究所官方*賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng )新洞見(jiàn)。

地址:北京市海淀區小南莊20號樓A座

*:iite_er

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全