谷歌研究人員發(fā)表論文探討人工智能如何毀掉互聯(lián)網(wǎng)
鞭牛士報道,7月5日消息,據外電報道,谷歌研究人員發(fā)表了一篇新論文,警告生成式人工智能正在用虛假內容毀掉互聯(lián)網(wǎng)的廣闊領(lǐng)域——這極具諷刺意味,因為谷歌一直在努力向其龐大的用戶(hù)群推廣同樣的技術(shù)。
這項研究是一篇尚未經(jīng)過(guò)同行評審的論文。
研究發(fā)現,絕大多數生成式人工智能用戶(hù)正在利用這項技術(shù)模糊真實(shí)性和欺騙性之間的界限,在互聯(lián)網(wǎng)上發(fā)布虛假或篡改的人工智能內容,例如圖片或視頻。研究人員還仔細研究了之前發(fā)表的關(guān)于生成式人工智能的研究,以及大約 200 篇報道生成式人工智能濫用的新聞文章。
研究人員總結道:操縱人類(lèi)肖像和偽造證據是現實(shí)世界濫用案件中最普遍的手段。其中大多數都帶有明顯的意圖,即影響輿論、進(jìn)行詐騙或欺詐活動(dòng)或牟利。
使問(wèn)題更加復雜的是,生成式人工智能系統日益先進(jìn)且隨時(shí)可用——研究人員表示,只需要極少的技術(shù)專(zhuān)長(cháng),而這種情況正在扭曲人們對社會(huì )政治現實(shí)或科學(xué)共識的集體理解。
據我們所知,這篇論文遺漏了什么?有沒(méi)有提到谷歌自己在使用該技術(shù)時(shí)犯下的令人尷尬的錯誤 ——作為世界上最大的公司之一,谷歌的錯誤有時(shí)規模巨大。
如果你讀過(guò)這篇論文,你就會(huì )忍不住得出這樣的結論:生成式人工智能的濫用聽(tīng)起來(lái)很像是該技術(shù)在按預期工作。人們正在使用生成式人工智能制作大量虛假內容,因為它非常擅長(cháng)完成這項任務(wù),結果導致互聯(lián)網(wǎng)上充斥著(zhù)人工智能垃圾。
而這種情況正是谷歌自己促成的,它允許這些虛假內容泛濫,甚至是虛假內容的源頭,無(wú)論是虛假圖片還是虛假信息。
研究人員表示,這一混亂局面也考驗著(zhù)人們辨別真假的能力。
他們寫(xiě)道:同樣,大量生產(chǎn)低質(zhì)量、垃圾郵件和惡意的合成內容可能會(huì )增加人們對數字信息的懷疑態(tài)度,并使用戶(hù)的驗證任務(wù)負擔過(guò)重。
令人不寒而栗的是,由于我們被虛假的人工智能內容淹沒(méi),研究人員表示,有些情況下知名人士能夠將不利的證據解釋為人工智能生成的,從而以昂貴且低效的方式轉移舉證責任。
隨著(zhù)谷歌等公司繼續將人工智能融入到每一款產(chǎn)品中,我們將會(huì )看到更多這樣的情況。