當前位置:首頁(yè) > 百科 > 正文內容

“馴服”AI還是被AI馴服:人工智能全球治理上海宣言出爐

武威印刷后道4個(gè)月前 (07-08)百科22
印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

ChatGPT喚醒了AI的黃金時(shí)代。

自上個(gè)世紀提出AI至今,這一技術(shù)與產(chǎn)業(yè)幾經(jīng)起落,終于從科幻小說(shuō)走入生產(chǎn)生活的現實(shí)。

但AI在解放生力可能性的同時(shí),其帶來(lái)的新風(fēng)險也無(wú)法忽視。

圖靈獎獲得者、中國科學(xué)院院士姚期智就在WAIC 2024上指出,AI運行存在神秘的“黑盒子”;同時(shí),它又具備強大的能力,如同火車(chē)、蒸汽機發(fā)明一樣,會(huì )使全人類(lèi)生活發(fā)生巨變。兩個(gè)現狀疊加,使得治理迫在眉睫。

在現實(shí)世界中,人工智能的迅猛發(fā)展,似乎也將人類(lèi)帶入了“黑暗森林”。和未知的外星文明一樣,AI身周環(huán)繞著(zhù)許多想象。

在完全了解AI之前,沒(méi)人知道對面是拯救人類(lèi)的“面壁者”,還是封鎖一切希望的“智子”。

《三體》里葉文潔曾說(shuō)過(guò)一句話(huà):“我點(diǎn)燃了火,卻控制不了它”。如今面對洶涌而來(lái)的AI,人類(lèi)希望在某種意義上希望能夠“馴服”AI。

在今年WAIC會(huì )議期間,多個(gè)與AI治理相關(guān)的論壇密集舉辦,上海向全球發(fā)布了《人工智能全球治理上海宣言》。宣言提出要促進(jìn)人工智能發(fā)展,維護人工智能安全,構建人工智能治理體系,加強社會(huì )參與和提升公眾素養,提升生活品質(zhì)與社會(huì )福祉。

吉印通國人工智能高層顧問(wèn)機構專(zhuān)家曾毅認為,這是在世界人工智能大會(huì )系列當中第一次發(fā)表了以大會(huì )為名義的共識,人工智能安全和治理可以說(shuō)是人工智能發(fā)展過(guò)程當中的國際共識。

圖源:主辦方供圖

AI黑暗森林

人工智能的未來(lái)充滿(mǎn)不確定性,唯一可以確定的是,技術(shù)迭代、應用落地的速度越來(lái)越快。

然而,當AI走進(jìn)現實(shí),人類(lèi)似乎成為了《三體》中看到了宇宙倒計時(shí)的汪淼,不可思議與無(wú)能為力的情緒同時(shí)產(chǎn)生。

一個(gè)疑問(wèn)浮現:AI的背后到底是什么,會(huì )讓人類(lèi)如此恐懼?

清華大學(xué)蘇世民書(shū)院院長(cháng)、人工智能?chē)H治理研究院院長(cháng)薛瀾指出,人工智能技術(shù)目前存在三重風(fēng)險:技術(shù)內在問(wèn)題、技術(shù)開(kāi)發(fā)伴生風(fēng)險以及技術(shù)誤用和濫用可能帶來(lái)的影響。

技術(shù)內在問(wèn)題,是指包括“幻覺(jué)”在內的人工智能系統內生問(wèn)題。

所謂“AI幻覺(jué)(AI Hallucinations)”,是指大語(yǔ)言模型有時(shí)會(huì )提供看似合理但錯漏百出的答案的現象。

另外,大模型的能力與其訓練數據高度相關(guān)。然而,數據也是個(gè)“是非之地”。高質(zhì)量數據的難以獲得是業(yè)界亟待解決的難題。如果數據質(zhì)量不高,其后期展現出的能力將無(wú)法保證。

在智能社會(huì )與全球治理框架論壇中,同濟大學(xué)經(jīng)濟與管理學(xué)院副院長(cháng)、長(cháng)江學(xué)者特聘教授鐘寧樺表示:“對于人工智能模型的訓練,數據(的重要性)占70%-80%,而后才是算法。”

薛瀾擔憂(yōu)的第三重風(fēng)險,來(lái)自商業(yè)實(shí)踐中的技術(shù)誤用或濫用。AI技術(shù)最終要走向應用,相比于技術(shù)和代碼,應用會(huì )直接影響到更多用戶(hù)的感知與體驗。

比如,通過(guò)對抗性輸入、“越獄”(jailbreaking)操作等方式,可以讓大模型突破安全限制,幫助操作者實(shí)現不法目的。

問(wèn)題總是新的,治理工作或多或少都可能有一定的滯后性。

為什么對AI治理的要求如此緊迫?

馴服還是被馴服?

因為,沒(méi)有人知道大模型和AI的邊界在哪。如同人類(lèi)發(fā)現火種、使用電力,AI不止作為一種工具介入生活,AI本身可能就意味了新的生活。但也意味著(zhù)新變量。

2015年,全世界193個(gè)國家在吉印通國共同簽署了人類(lèi)可持續發(fā)展目標(SDGs)。SDGs包括17個(gè)目標,下設169個(gè)具體的指標,它們希望用這些目標考察2015-2030年人類(lèi)社會(huì )如何實(shí)現更好發(fā)展。“但去年有研究機構發(fā)現,人工智能會(huì )對169個(gè)指標里的134個(gè)帶來(lái)積極促進(jìn)作用;但同時(shí)也有可能對其中59個(gè)左右指標產(chǎn)生不利影響。 ”薛瀾指出。

“如何推動(dòng)人工智能健康發(fā)展,盡可能地讓它收益最大化?同時(shí)把風(fēng)險降到最低?”在WAIC開(kāi)幕式上,他這樣發(fā)問(wèn)。

其實(shí)如同《三體》里,地球三體組織里出現了拯救派、降臨派、幸存派等不同派別。當前AI治理也出現了不同派系。

其一是“樂(lè )觀(guān)派”,其信仰者提倡加速技術(shù)創(chuàng )新,快速推出新技術(shù)并應用,從而顛覆社會(huì )結構。Sam Altman被認為是隱藏的有效加速主義者。

而在WAIC 2024上,中國工程院院士,之江實(shí)驗室主任,阿里云創(chuàng )始人王堅也表達了他的樂(lè )觀(guān),“我是個(gè)無(wú)藥可救的技術(shù)樂(lè )觀(guān)主義者。”王堅坦陳。在他看來(lái),任何人類(lèi)產(chǎn)生的問(wèn)題,最后都會(huì )在發(fā)展中被解決。過(guò)去每一個(gè)變革節點(diǎn)帶來(lái)的恐慌不一定比今天的AI帶來(lái)的小。“但我們都走過(guò)來(lái)了。”他說(shuō)。

他認為,環(huán)繞人工智能的疑問(wèn)、擔憂(yōu)與風(fēng)險十分復雜,解決它們不可能一蹴而就。“未來(lái)十年將是人工智能發(fā)展激動(dòng)人心的關(guān)鍵時(shí)期。”王堅指出,人工智能是少數幾種會(huì )對人類(lèi)的基礎設施建設產(chǎn)生極大影響的技術(shù)。它帶來(lái)的變化可能改變人類(lèi)的行為習慣,甚至將重新定義社會(huì )規范。

馬斯克一直對人工智能的態(tài)度較為悲觀(guān),他多次強調AI的危險性,甚至認為AI的危險要遠大于核武器,“我想我們不會(huì )允許任何人都去制造核武器,請再次記住我的話(huà),AI要比這危險得多。”

在今年戛納國際廣告節上,馬斯克在接受采訪(fǎng)時(shí)引用了Geoffrey Hinton的觀(guān)點(diǎn),認為存在10%到20%的可能性AI會(huì )“導致糟糕的情況發(fā)生”。他還提到,人工智能應用可能會(huì )帶來(lái)意義危機:”如果AI能完成一切事情,甚至比人類(lèi)做得更好,那我們工作的意義何在?“

在更早的2023年年末,OpenAI反轉不斷的“宮斗”劇中,Sam的反對者――OpenAI首席科學(xué)家Ilya Sutskever則相對中立。

Ilya曾在去年7月組建OpenAI超級對齊團隊。這個(gè)團隊的核心理念是要求AI能夠在各種環(huán)境下自發(fā)推導出符合人類(lèi)價(jià)值觀(guān)的行動(dòng)方針。

在A(yíng)I領(lǐng)域里,意圖和結果的偏差被稱(chēng)為“對齊問(wèn)題(The Alignment Problem)”。因此,“價(jià)值對齊”可以理解為是讓人工智能系統與人類(lèi)價(jià)值觀(guān)保持一致。確保AI以對人類(lèi)和社會(huì )有益的方式行事,不對人類(lèi)造成干擾和傷害。

盡管當下各種觀(guān)點(diǎn)各有擁躉,但價(jià)值對齊可能是人工智能治理較為普遍的“核心價(jià)值”。

在更為落地的層面,各國監管部門(mén)也陸續出手AI治理。

今年5月,歐盟理事會(huì )正式批準歐盟《人工智能法案》,這被認為是全球首部綜合性人工智能治理立法。歐盟方案以“風(fēng)險分類(lèi)分級”為核心思路,將人工智能系統按照對用戶(hù)和社會(huì )的潛在影響程度將其分為4類(lèi):不可接受風(fēng)險類(lèi)、高風(fēng)險類(lèi)、有限風(fēng)險類(lèi)、最小風(fēng)險類(lèi)。不同風(fēng)險等級,意味著(zhù)不同力度的監管。

45°平衡率

治理的尺度應如何把控?

上海人工智能實(shí)驗室主任、首席科學(xué)家,清華大學(xué)惠妍講席教授周伯文嘗試給出一個(gè)結論。

在人工智能領(lǐng)域有一條非常知名的定律――尺度定律(Scaling Law),這條大模型界的“摩爾定律”,簡(jiǎn)而言之,是指隨著(zhù)模型規模(數據、模型和算力規模)的不斷提升,大模型的能力基本也能夠不斷提升。

周伯文指出,在Transformer為代表的基礎模型架構下,尺度定律被不斷印證,證明目前AI性能呈指數級增長(cháng)。但與此形成對比的是,在A(yíng)I安全維度典型的技術(shù),呈現零散化、碎片化,且后置性的特性。

在他看來(lái),人類(lèi)最終應當以“AI-45°平衡律” (AI-45° Law)的技術(shù)思想體系作為人工智能產(chǎn)業(yè)健康發(fā)展的參考。

圖源:主辦方供圖

“從長(cháng)期的角度來(lái)看,我們要大體上沿著(zhù)45度安全與性能平衡發(fā)展。”周伯文說(shuō)。在他看來(lái),短期內的波動(dòng)可以被接受,但不能長(cháng)期偏離45°的基準線(xiàn)。“太低了,AI安全性無(wú)法保障;如果太高,則意味著(zhù)AI發(fā)展被抑制。”

百年后的功過(guò)暫且不論,處于當下的人們相信,ChatGPT喚醒了AI的黃金時(shí)代。

從哪走、如何走、走向哪,沒(méi)有人能給出確切答案。但要發(fā)展、要健康地發(fā)展,這個(gè)共識跨越了時(shí)間和空間。

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全