當前位置:首頁(yè) > 百科 > 正文內容

谷歌:AI正在毀掉互聯(lián)網(wǎng)!

紅河臺歷印刷3個(gè)月前 (07-24)百科14
印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

新智元報道

編輯:庸庸 喬楊

【新智元導讀】谷歌研究人員對200篇關(guān)于生成式AI濫用的新聞報道進(jìn)行了研究,發(fā)現生成式AI造成的虛假信息正在互聯(lián)網(wǎng)上泛濫成災。但最諷刺的是,谷歌正是這些虛假信息的重要制造商之一。

谷歌研究人員發(fā)表了一篇新論文,警告生成式人工智能正在用虛假內容毀掉互聯(lián)網(wǎng)。

這極具諷刺意味,因為倘若互聯(lián)網(wǎng)真的在被GenAI所荼毒,谷歌自己也「功不可沒(méi)」——它是世界上最大的構建、部署和推廣GenAI的公司之一。

廣為人知的是,其之前在搜索頁(yè)面推出的AI概述功能,居然出現了「披薩上涂膠水」「吃石頭」之類(lèi)令人啼笑皆非的離譜建議,后來(lái)谷歌不得不手動(dòng)刪除這些錯誤信息。

這篇論文由谷歌人工智能研究實(shí)驗室DeepMind、安全智囊團Jigsaw和慈善機構Google.org的研究人員共同撰寫(xiě),他們深入調查了關(guān)于生成式人工智能的研究報告,以及約200篇關(guān)于生成式人工智能濫用的新聞報道,對生成式AI工具被濫用的不同方式進(jìn)行了分類(lèi)。

論文地址:

最終得出結論:在現實(shí)世界的濫用案例中,篡改人類(lèi)肖像和偽造證據是最普遍的。這么做的意圖也很明確,無(wú)非是為了影響公眾輿論、詐騙,或牟取利益。

奧特曼和馬斯克都曾經(jīng)警告過(guò)AGI可能會(huì )帶來(lái)「生存性風(fēng)險」,但谷歌這次的研究重點(diǎn)是生成式人工智能。

生成式人工智能的風(fēng)險雖然還沒(méi)有上升到「威脅生存」的地步,但是卻更加迫近——這是當下正在發(fā)生的事情,而且未來(lái)可能會(huì )變得更糟。

因為這種技術(shù)讓任何人都可以輕松地生成文本、音頻、圖像和視頻,互聯(lián)網(wǎng)上充斥著(zhù)偽造或篡改的人工智能生成的內容,「真實(shí)與虛假之間的界限被模糊掉了」。

「虛假信息炮制機」是GenAI的宿命?

研究人員發(fā)現,大多數GenAI濫用案例都是對系統的正常使用,并沒(méi)有「越獄」行為,這類(lèi)「常規操作」占了9成。

正如研究人員在論文后面所解釋的那樣,GenAI的廣泛可用性、可訪(fǎng)問(wèn)性和超現實(shí)性,使得層出不窮的、較低級別的濫用形式成為可能——生成虛假信息的成本實(shí)在是太低了!

閱讀完這篇論文之后,你可能會(huì )情不自禁產(chǎn)生這樣的感受:人們并沒(méi)有濫用GenAI,只不過(guò)是按照其產(chǎn)品設計正常使用而已。

人們使用生成式人工智能來(lái)制作大量虛假內容,是因為它本來(lái)就非常擅長(cháng)完成這項任務(wù)。

很多虛假內容往往既沒(méi)有明顯的惡意,也沒(méi)有明確違反這些工具的內容政策或服務(wù)條款,但其潛在的危害是巨大的。

這一觀(guān)察結果與404 Media之前的報道不謀而合。

那些利用人工智能冒充他人、擴大不良內容的規模和傳播范圍,或制作未經(jīng)同意的私密圖片(nonconsensual intimate images,NCII)的人,大多并沒(méi)有入侵或操縱他們正在使用的人工智能生成工具,他們是在允許的范圍內使用這些工具。

很簡(jiǎn)單就能舉出2個(gè)例子:

AI工具的「圍欄」可以用一些提示巧妙避過(guò),沒(méi)有什么能阻止用戶(hù)使用ElevenLabs的人工智能語(yǔ)音克隆工具高度逼真地模仿出同事或明星的聲音。

Civitai用戶(hù)可以創(chuàng )建人工智能生成的名人圖像,雖然該平臺有禁止NCII的政策,但同樣沒(méi)有什么能阻止用戶(hù)在自己的機器上使用GitHub上開(kāi)源的工具(如 Automatic1111 或 ComfyUI)來(lái)生成 NCII。

斯嘉麗·約翰遜的頭像是DeepFake重災區

將這些AI生成的內容發(fā)到Facebook可能違反了平臺的政策,但生成這個(gè)行為本身并沒(méi)有違反他們所使用的人工智能圖片生成器的政策。

媒體:GenAI的濫用只是冰山一角

因為谷歌的研究素材大量來(lái)自于媒體報道,這就帶來(lái)了一個(gè)問(wèn)題:這是否會(huì )讓研究結論帶有媒體的偏見(jiàn)?畢竟作為探照燈的媒體,在選題和報道上有自己的偏向。

那些聳人聽(tīng)聞的事件更容易被報道,這可能會(huì )導致數據集偏向特定類(lèi)型的濫用。

404 Media對此做出了回應:雖然媒體確實(shí)只能報道它所能證實(shí)的事件,但是可以確定的一點(diǎn)是,還有大量的我們尚未意識到的生成式人工智能的濫用沒(méi)有被報道。

即便是上文提到的用AI生成名人色情圖片的情況,被媒體大量揭露,但仍然存在報道不足的問(wèn)題。

首先是因為這一話(huà)題仍是禁忌,有很多出版物不愿報道。

其次是因為媒體只能捕捉到個(gè)例,無(wú)法始終關(guān)注事件的整體和后續,404 Media的一名編輯寫(xiě)道:

在我聯(lián)系Patreon官方作出回應(之后發(fā)言人關(guān)閉了他的賬戶(hù))之前,我寫(xiě)過(guò)一篇報道,關(guān)于一個(gè)用戶(hù)在Patreon上通過(guò) NCII 盈利,他制作了53190張未經(jīng)同意的名人圖片。那篇報道中還提到了另外兩名NCII制作者,之后我又發(fā)現了其他人。

泰勒·斯威夫特在推特上瘋傳的人工智能生成的裸體圖片就是在Telegram和4chan社區首次分享的,在一月份那篇報道爆出前后,這些社區都很活躍,從那以后,他們每天都在發(fā)布NCII。

我和其他記者不會(huì )對每一張圖片和創(chuàng )作者都進(jìn)行報道,因為如果這樣做,我們就沒(méi)有時(shí)間做其他事情了。

當虛假信息泛濫,甩鍋給AI變得很容易

讓我們做一個(gè)推演,當互聯(lián)網(wǎng)上充斥著(zhù)人工智能生成的內容,會(huì )發(fā)生什么?

最直接的后果是,互聯(lián)網(wǎng)上的混亂狀況會(huì )對人們辨別真假的能力帶來(lái)巨大的考驗,我們將陷入一種經(jīng)常性的懷疑,「這是真的嗎」?

在互聯(lián)網(wǎng)剛剛出現的時(shí)代,流行的一句話(huà)是,「你不知道網(wǎng)線(xiàn)那頭是人是狗」,現在這種趨勢愈演愈烈了,人們被虛假的人工智能生成內容所淹沒(méi),越來(lái)越疲于應對。

如果不加以解決,人工智能生成的內容對公開(kāi)數據的污染還可能會(huì )阻礙信息檢索,扭曲對社會(huì )政治現實(shí)或科學(xué)共識的集體理解。

而且,這可能會(huì )成為一些知名人物的「擋箭牌」,在某些情況下,他們能夠將對自己不利的證據解釋為人工智能生成的,輕巧地將舉證的責任轉移出去。

對于生成式AI所帶來(lái)的虛假內容的泛濫,谷歌起到了推波助瀾的作用,甚至可以說(shuō)是「始作俑者」也不為過(guò),多年前射出的子彈,今日終于擊中了自己的眉心。

參考資料:

021yin.com/the-byte/google-researchers-paper-ai-internet

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全