當前位置:首頁(yè) > 百科 > 正文內容

AI“滅絕”人類(lèi)前,OpenAI已經(jīng)被罵慘了

阿拉善盟海報印刷4個(gè)月前 (06-12)百科8
印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

文|鋅財經(jīng) 孫鵬越

編輯|大風(fēng)

OpenAI的瓜還在繼續,甚至已經(jīng)上升到人類(lèi)存亡的歷史高度。

就在上周,頭部AI公司OpenAI和谷歌的13位員工(7名OpenAI前員工和4名現任員工,1名谷歌DeepMind現任員工和1名前員工),公開(kāi)發(fā)表了一封名為《對先進(jìn)人工智能發(fā)出警告的權利》的聯(lián)名信。

在信中,他們用一種極為驚悚的語(yǔ)調表示:“人工智能可能帶來(lái)的人類(lèi)滅絕風(fēng)險”。

大權獨攬的山姆·奧特曼

目前,這封公開(kāi)信已經(jīng)引發(fā)AI世界的大地震。

甚至還獲得了兩位2018年圖靈獎得主約書(shū)亞·本吉奧(Yoshua Bengio)、喬弗里·辛頓(Geoffrey Hinton)的署名支持。

OpenAI和谷歌的員工們在信中曝光出一個(gè)非常驚悚的言論:

“AI公司掌握了他們正在研究的人工智能技術(shù)的真正風(fēng)險所在,但由于他們不需要向政府披露太多信息,因此他們系統的真正能力仍是一個(gè)‘秘密’。如果沒(méi)有適當的監管,人工智能系統可以強大到足以造成嚴重危害,甚至‘滅絕人類(lèi)’?!?/p>

據信中所說(shuō),當前AI公司已經(jīng)了解到安全性的嚴重程度,但是在高層內部正在產(chǎn)生分歧甚至分裂,大多數高層認為利潤至上,小部分高層認為安全性更為重要。

不得不說(shuō),這封公開(kāi)信戳中了OpenAI的內部問(wèn)題,甚至隱晦指出去年爆發(fā)的“OpenAI政變危機”,以及首席科學(xué)家伊利亞·蘇斯克沃(Ilya Sutskever)的下臺。

去年11月,OpenAI爆發(fā)政變,首席科學(xué)家伊利亞·蘇斯克沃吉印通董事會(huì ),將CEO山姆·奧特曼和總裁格雷格·布羅克曼開(kāi)除。

這場(chǎng)宮斗鬧劇吸引了全世界的目光,最終導致背后金主微軟的下場(chǎng),伊利亞·蘇斯克沃政變失敗,山姆·奧特曼官復原職。

據悉,雙方最大的矛盾點(diǎn),就在于A(yíng)I安全性。

山姆·奧特曼加速OpenAI商業(yè)化,在不確定安全性是否會(huì )帶來(lái)嚴重后果的前提下,依然成立GPT應用商店,允許私人創(chuàng )建GPT機器人,開(kāi)放“灰色機器人”入駐ChatGPT。

在OpenAI主要負責AI監督工作的伊利亞·蘇斯克沃,堅持AI安全才是OpenAI的核心,而非商業(yè)化,對山姆·奧特曼大刀闊斧的加速商業(yè)化進(jìn)程非常不滿(mǎn)。

在2023年爆發(fā)過(guò)多次高層會(huì )議爭斗之后,最終實(shí)施政變。

在政變失敗后,山姆·奧特曼徹底將OpenAI變成“一言堂”,解除多位政見(jiàn)不合的董事職位,將伊利亞·蘇斯克沃雪藏半年后開(kāi)除。

共同創(chuàng )建OpenAI的10年老搭檔黯然出局,但山姆·奧特曼依然沒(méi)有收手,甚至將安全部門(mén)視為“亂黨黨羽”,也要一一肅清。

伊利亞·蘇斯克沃負責的超級對齊團隊,原本是為能夠智勝和壓倒創(chuàng )造者的超級智能人工智能的出現做準備,在伊利亞·蘇斯克沃離開(kāi)后,團隊直接解散,幾名相關(guān)研究人員離職。

制約OpenAI風(fēng)險控制團隊解散,負責AI安全的“最后一把鎖”被山姆·奧特曼砸碎,只能說(shuō)在他眼里,AI安全并沒(méi)有利益和金錢(qián)重要。

全球400多位大佬聯(lián)名警告

排除異見(jiàn),讓關(guān)于“安全性”的秘密保留在公司內部。

這個(gè)做法并不能滿(mǎn)足山姆·奧特曼,作為猶太裔的他,多疑是種天性。于是山姆·奧特曼強制性要求員工離職后一周內簽署一份極其嚴格的“離職協(xié)議”:

前OpenAI員工必須遵守的“保密條款”和“不貶低條款”,禁止任何時(shí)間、任何場(chǎng)合批評OpenAI,而且即使承認保密協(xié)議的存在也是違反該協(xié)議的行為;

如果離職員工拒絕簽署,或者違反協(xié)議規定,他們可能會(huì )失去既得股權,價(jià)值數百萬(wàn)美元。

同時(shí),這份“離職協(xié)議”的期限是:終生,直至死亡。

不得不說(shuō),作為硅谷最有權勢的CEO,山姆奧特曼下手真狠。如果把這份“警惕員工”的保密精神,用在A(yíng)I安全上,可能就不會(huì )有所謂的人類(lèi)AI危機了。

最為“癲”的事情來(lái)了,山姆·奧特曼一邊被外界指責忽視AI安全,一邊又在國際AI領(lǐng)域非營(yíng)利組織“人工智能安全中心”(Center for AI Safety)聯(lián)名發(fā)布公開(kāi)信,表達了對一些高級人工智能所帶來(lái)嚴重風(fēng)險的擔憂(yōu)。

是的,不止你會(huì )寫(xiě)信,我也會(huì )。

從規模上看,“人工智能安全中心”的聯(lián)名信目前已有400多名全球的人工智能領(lǐng)域科學(xué)家、企業(yè)高管等簽署,影響力更為深遠。

全文只有簡(jiǎn)短的一句話(huà):Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

(減輕人工智能帶來(lái)的人類(lèi)滅絕風(fēng)險,應該與大流行病和核戰爭等其他影響社會(huì )的大規模風(fēng)險一同成為全球性的優(yōu)先事項。)

狠話(huà)雖然放出去了,但沒(méi)人執行。

在目前的頭部AI公司中,普遍對AI安全性并不關(guān)注。OpenAI背后的金主微軟,早在2023年3月就裁撤了整個(gè)人工智能部門(mén)內道德與社會(huì )團隊。

在互聯(lián)網(wǎng)巨企眼中,市場(chǎng)份額遠遠比“虛無(wú)縹緲”的安全性更為關(guān)鍵。

AI會(huì )不會(huì )變成“智械危機”?

將AI視為“大流行病、核戰爭”同等致命危險,并不是危言聳聽(tīng)。

在人工智能 (AI) 技術(shù)的飛速發(fā)展下,機器人逐漸成為我們日常生活和工作中的重要組成部分。以目前AI的發(fā)展情況來(lái)說(shuō),人工智能對人類(lèi)造成生存風(fēng)險,至少有兩種可能。

第一種:短期內的AI危機,就是在A(yíng)I智能程度還不夠完善,人類(lèi)會(huì )利用AI來(lái)顛覆社會(huì )安全。例如,等到AI大模型集體開(kāi)源的時(shí)候,一些不法之徒利用不加限制的開(kāi)源代碼,采購一些英偉達GPU、再向微軟租個(gè)云服務(wù)器,大批量制造出“灰色機器人”。

這些不加節制、又難以溯源的AI,對人類(lèi)社會(huì )的破壞堪比一枚“電子核彈”。

第二種:遠期的AI危機,則更接近電影、游戲中的“智械危機”。

當AI來(lái)到超級智能的時(shí)代,由于智力水平可能遠超過(guò)人類(lèi),超級智能看待人類(lèi)如同人類(lèi)看待螞蟻,很多人據此認為超級智能將與人類(lèi)爭奪資源,甚至危及到人類(lèi)的生存。

面對可能對人類(lèi)社會(huì )造成影響的AI危機,谷歌旗下DeepMind公司,在今年初就起草了“機器人憲法”,以確保AI機器人不會(huì )傷害人類(lèi)。

以艾薩克?阿西莫夫的“機器人三大定律”為前提,“機器人憲法”明確要求AI機器人在家庭、辦公室、工廠(chǎng)等環(huán)境場(chǎng)景中,機器人的行為將受到嚴格的限制,以確保它們在執行任務(wù)時(shí)不會(huì )對人類(lèi)、動(dòng)物、尖銳物體甚至電器造成傷害。

此外,該憲法還強調了機器人的自主性和創(chuàng )造性,使得它們能夠在人類(lèi)無(wú)法勝任的環(huán)境中執行任務(wù)。

或許,機器人憲法給AI時(shí)代開(kāi)了個(gè)好頭,但面臨日益嚴峻的AI安全性問(wèn)題上,普通人需要得到的保護還不夠多。

最起碼,先讓那些互聯(lián)網(wǎng)巨企們知道,AI并不簡(jiǎn)簡(jiǎn)單單是筆賺錢(qián)的生意,還有可能成為一枚“電子核彈”。

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全