當AI出錯了人類(lèi)該如何應對?

3年前 (2021-08-22)閱讀1160回復0
上海產(chǎn)品包裝盒印刷
上海產(chǎn)品包裝盒印刷
  • 管理員
  • 發(fā)消息
  • 注冊排名3821
  • 經(jīng)驗值80
  • 級別管理員
  • 主題16
  • 回復0
樓主
印刷廠(chǎng)直印加工●彩頁(yè)1000張只需要69元●名片5元每盒-更多產(chǎn)品印刷報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

雖然政府和私營(yíng)企業(yè)正在快速部署AI系統,但公眾卻缺少在這些系統出現故障時(shí)追究其責任的工具AI 經(jīng)常提示報錯,請高手幫忙!。這是AI Now最新發(fā)布的一份報告的結論之一。AI Now是一家面向微軟、谷歌等科技公司的研究機構,同時(shí)它隸屬于紐約大學(xué)。

AI Now在報告中審視了AI和算法系統的社會(huì )挑戰,它將問(wèn)題聚焦于研究人員所稱(chēng)的“問(wèn)責缺口”AI 經(jīng)常提示報錯,請高手幫忙!。對此,他們提出了十項建議,包括呼吁政府對面部識別進(jìn)行監管以及對AI產(chǎn)品制定“廣告真實(shí)法”,讓企業(yè)不能簡(jiǎn)單地利用該技術(shù)的聲譽(yù)來(lái)銷(xiāo)售其服務(wù)。

現在許多大型科技公司都開(kāi)始發(fā)現自己正處于A(yíng)I的淘金熱中,于是它們大舉進(jìn)入從招聘到醫療保健等多個(gè)市場(chǎng)并出售自己的服務(wù)AI 經(jīng)常提示報錯,請高手幫忙!。但是,正如AI Now的聯(lián)合創(chuàng )始人、谷歌Open Research Group負責人Meredith Whittaker所說(shuō)的那樣,這些公司許多關(guān)于利益和效用的主張并沒(méi)有得到公開(kāi)的科學(xué)證據支持。Whittaker舉了IBM沃森系統的例子,據了解,該系統在斯隆凱特林癌癥中心進(jìn)行實(shí)驗診斷時(shí)給出了“不安全且不正確的治療建議”。對此,Whittaker表示:“他們(IBM)的營(yíng)銷(xiāo)部門(mén)對近乎神奇的特性所做的斷言從未得到過(guò)同行評論研究的證實(shí)。”

AI Now最新報告的作者們指出,這一事故只是涉及AI和算法系統的一系列“連鎖丑聞”的其中一件,另外還有Facebook協(xié)助促成了緬甸的種族滅絕、谷歌Maven項目對美國軍方制造無(wú)人機AI工具的幫助以及劍橋分析公司數據丑聞等等AI 經(jīng)常提示報錯,請高手幫忙!。

在所有這些案例中,既出現了來(lái)自公眾的強烈抗議也有來(lái)自硅谷最具價(jià)值的公司內部的不同意見(jiàn)AI 經(jīng)常提示報錯,請高手幫忙!。這一年,谷歌員工因五角大樓的合同辭職、微軟員工向該公司施壓要求其停止與移民和海關(guān)執法局的合作以及谷歌、Uber、eBay和Airbnb為抗議涉及性騷擾而展開(kāi)的罷工運動(dòng)。

Whittaker指出,這些抗議活動(dòng)得到了勞工聯(lián)盟和像AI Now等這樣的研究機構的支持,這已經(jīng)成為了一股意想不到、令人欣慰的公眾問(wèn)責力量AI 經(jīng)常提示報錯,請高手幫忙!。

但報告的目的很清楚,那就是公眾需要的更多AI 經(jīng)常提示報錯,請高手幫忙!。當涉及到政府采用自動(dòng)決策系統(ADS)時(shí)對公民正義的威脅尤為明顯。報告的作者們指出,通常情況AI系統被引入這些領(lǐng)域則是為了降低成本和提高效率,然而結果往往是系統作出了說(shuō)不通或無(wú)法上訴的決定。

Whittaker和另外一位AI Now聯(lián)合創(chuàng )始人、微軟研究員Kate Crawford指出,將ADS整合到政府服務(wù)中已經(jīng)超過(guò)了他們審計這些系統的能力范圍AI 經(jīng)常提示報錯,請高手幫忙!。不過(guò)他們表示可以采取一些具體的步驟來(lái)解決這一問(wèn)題,比如要求向政府出售服務(wù)的技術(shù)供應商放棄貿易保密保護從而讓研究人員可以更好地去檢查它們的算法。

另外他們還提到了另外一個(gè)需要立即立即采取行動(dòng)的領(lǐng)域--面部識別和情感識別AI 經(jīng)常提示報錯,請高手幫忙!。現在全球已經(jīng)有多個(gè)國家的警察開(kāi)始使用前者。例如為奧蘭多和華盛頓縣警方部署的亞馬遜Rekognition系統,盡管測試顯示該軟件在不同種族中的表現不同,但在一項用Rekognition識別國會(huì )議員的測試中白人議員的錯誤率只有5%而非白人議員的錯誤率卻有39%。在情感識別方面,這家公司聲稱(chēng)他們的技術(shù)可以通過(guò)掃描一個(gè)人的面部來(lái)讀取其性格甚至意圖。對此,AI Now的看法是企業(yè)們經(jīng)常都在兜售偽科學(xué)。

盡管面臨不少的挑戰,但Whittaker和Crawford表示,2018年的情況已經(jīng)表明,當AI問(wèn)責和偏見(jiàn)問(wèn)題被曝光時(shí),技術(shù)員工、立法者和公眾愿意采取行動(dòng)而不再是默許AI 經(jīng)常提示報錯,請高手幫忙!。

0
0
收藏0
回帖

當AI出錯了人類(lèi)該如何應對? 期待您的回復!

取消
載入表情清單……
載入顏色清單……
插入網(wǎng)絡(luò )圖片

取消確定

圖片上傳中
編輯器信息
提示信息