當前位置:首頁(yè) > 百科 > 正文內容

“AI教父”背書(shū),13位OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕

那曲燈箱制作5個(gè)月前 (06-06)百科4
印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

當地時(shí)間4日,13位來(lái)自OpenAI和Google的現任及前任員工吉印通發(fā)布了一封公開(kāi)信,引發(fā)廣泛關(guān)注。這些員工在信中表達了對人工智能技術(shù)潛在風(fēng)險的嚴重擔憂(yōu),并呼吁相關(guān)公司采取更加透明和負責任的措施來(lái)應對這些風(fēng)險。

13位OpenAI、谷歌現任及前任員工發(fā)聯(lián)名信

這封公開(kāi)信由多位知名人士聯(lián)名背書(shū),包括被譽(yù)為“人工智能教父”的杰弗里?辛頓(Geoffrey Hinton)、因開(kāi)創(chuàng )性AI研究獲得圖靈獎的約書(shū)亞?本吉奧(Yoshua Bengio)以及AI安全領(lǐng)域的學(xué)者斯圖爾特?羅素(Stuart Russell)。

“AI教父”背書(shū),13位OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕

圖片來(lái)源:Right To Warn AI

信中指出,盡管人工智能技術(shù)可能會(huì )給人類(lèi)帶來(lái)巨大益處,但其帶來(lái)的風(fēng)險同樣不容忽視。這些風(fēng)險包括加劇社會(huì )不平等、操縱和虛假信息傳播,以及自主AI系統失控可能導致的人類(lèi)滅絕。信中強調,這些風(fēng)險不僅得到了人工智能公司本身的確認,也得到了世界各國政府和其他AI專(zhuān)家的認可。

公開(kāi)信簽署者們表示,他們希望在科學(xué)界、政策制定者和公眾的指導下,能夠充分緩解這些風(fēng)險。然而,他們擔心,人工智能公司由于強烈的經(jīng)濟動(dòng)機,可能會(huì )避免接受有效的監督。他們認為,僅靠現有的公司治理結構不足以解決這一問(wèn)題。

信中還提到,人工智能公司掌握著(zhù)大量關(guān)于其系統能力和局限性、保護措施的充分性以及各種風(fēng)險水平的非公開(kāi)信息。然而,這些公司目前對與政府分享信息的義務(wù)很弱,且完全沒(méi)有義務(wù)與公眾分享。簽署者們認為,不能完全依賴(lài)這些公司自愿分享信息。

信中提到,由于嚴格的保密協(xié)議,員工們在表達對AI風(fēng)險的擔憂(yōu)時(shí),面臨著(zhù)種種限制。而目前對于舉報人的保護措施尚存在不足,一些員工擔心因提出批評而遭受報復。

聯(lián)名信呼吁人工智能公司承諾員工對公司提出風(fēng)險相關(guān)的批評時(shí),不對其進(jìn)行打擊報復,建立匿名舉報機制,支持開(kāi)放批評的文化,并保護員工公開(kāi)分享風(fēng)險相關(guān)信息的權利。

“AI教父”背書(shū),13位OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕

圖片來(lái)源:X

OpenAI前員工丹尼爾?科泰洛 (Daniel Kokotajlo)是此次聯(lián)名信公開(kāi)署名人員中的一位。他在社交平臺上連發(fā)15條消息表示:“我們中一些最近從OpenAI辭職的人聚集在一起,要求實(shí)驗室對透明度作出更廣泛的承諾?!?/p>

丹尼爾提到,他今年四月辭職,是因為對該公司在構建通用人工智能方面是否會(huì )采取負責任的行為失去了信心。他指出,盡管他希望公司在A(yíng)I功能越來(lái)越強大的同時(shí),能在安全研究方面投入更多資金,但OpenAI并未做出相應調整,導致多名員工相繼辭職。

他強調,OpenAI等實(shí)驗室構建的系統有能力給人類(lèi)社會(huì )帶來(lái)巨大的好處,但如果不謹慎處理,長(cháng)期來(lái)看,可能是災難性的。他還提到,當前AI技術(shù)幾乎未收監管,主要是公司在進(jìn)行自我監管,而這種方式存在巨大的風(fēng)險。

丹尼爾透露,離職時(shí)他被要求簽署一份“封口協(xié)議”,其中包含一項不貶損條款,禁止他發(fā)表任何批評公司的話(huà),否則將失去已歸屬的股權。然而,他在深思熟慮后,依舊決定放棄簽署協(xié)議。

“AI教父”背書(shū),13位OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕

圖片來(lái)源:Dwarkesh Podcast

此外,6月4日,OpenAI前超級對齊部門(mén)成員利奧波德?阿申布倫納(Leopold Aschenbrenner)也在播客節目Dwarkesh Podcast中透露他被開(kāi)除的真實(shí)原因:他給幾位董事會(huì )成員分享了一份OpenAI安全備忘錄,結果導致OpenAI管理層不滿(mǎn)。

利奧波德在社交平臺表示,到2027年實(shí)現AGI是極其有可能的,需要更嚴格的監管和更透明的機制,確保人工智能的安全發(fā)展。

“AI教父”背書(shū),13位OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕

圖片來(lái)源:X

OpenAI安全主管辭職、“超級對齊團隊”解散

此前,OpenAI原首席科學(xué)家伊利亞?蘇茨克維(Ilya Sutskever)和前安全主管、超級對齊團隊負責人楊?萊克(Jan Leike)相繼離職。

萊克在離職后,公開(kāi)批評了OpenAI的管理層,指責其追求華而不實(shí)的產(chǎn)品,忽視了AGI(通用人工智能)的安全問(wèn)題。他稱(chēng)OpenAI領(lǐng)導層關(guān)于公司核心優(yōu)先事項的看法一直不合,超級對齊團隊過(guò)去幾個(gè)月一直在逆風(fēng)航行,在提升模型安全性的道路上受到公司內部的重重阻礙,“(OpenAI)安全文化和安全流程已經(jīng)讓位給閃亮的產(chǎn)品”。

“AI教父”背書(shū),13位OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕

圖片來(lái)源:X

每日經(jīng)濟新聞綜合公開(kāi)消息

每日經(jīng)濟新聞

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全