AI幻覺(jué)難以避免,如何應對
張海
021yin.com021yin.com的數據,2023年“幻覺(jué)”一詞的搜索量比前一年增加了46%。劍橋詞典中,“幻覺(jué)”的原有釋義“似乎看到、聽(tīng)到、感覺(jué)到或聞到一些不存在的東西,通常是因為健康狀況或因為你服用了某種藥物而產(chǎn)生幻覺(jué)”之外,增加了一個(gè)新的釋義:“AI幻覺(jué)會(huì )生成錯誤訊息”。
日前《自然》雜志上的一篇論文《機器行為》指出,人工智能今天已經(jīng)普遍存在于人類(lèi)社會(huì ),新聞排名算法會(huì )影響人們看到的信息,消費算法會(huì )影響人們購買(mǎi)什么消費品,打車(chē)算法會(huì )影響我們的出行模式,智能家庭算法會(huì )影響我們的家庭生活,在法律、醫療等領(lǐng)域,人工智能的影響就更為巨大。人工智能使機器越來(lái)越像人類(lèi)一樣思考和行為。如此一來(lái),機器越來(lái)越深入影響人類(lèi)社會(huì )的結構,機器塑造人類(lèi)的行為,人類(lèi)也塑造機器的行為,人類(lèi)和機器如何協(xié)同,會(huì )對未來(lái)社會(huì )形態(tài)產(chǎn)生重大深遠的影響。
人工智能時(shí)代下,AI幻覺(jué)已經(jīng)成為一種普遍存在的現象。從自動(dòng)駕駛汽車(chē)可能的錯誤判斷到智能助手誤解指令,再到醫療診斷工具的誤診,AI幻覺(jué)遍布于我們日常生活的每一個(gè)角落。2024年谷歌搜索引擎推出了一項人工智能搜索服務(wù):AI概覽,提供AI生成的答案。其本意是想提升用戶(hù)體驗,但用戶(hù)很快發(fā)現AI概覽提供了大量離譜的答案,如建議用膠水粘披薩、每天吃石頭來(lái)獲取營(yíng)養等,使得谷歌趕快關(guān)閉了其部分功能。
從人工智能科學(xué)家的視角看,由于技術(shù)的限制和人類(lèi)認知的不足,AI幻覺(jué)本質(zhì)上是難以避免的。盡管技術(shù)人員正在努力提升AI的準確性和可靠性,但由于數據的不完整、算法的局限和復雜的交互環(huán)境等因素,AI幻覺(jué)仍然頻繁出現,且難以完全消除。
AI幻覺(jué)的產(chǎn)生機制涉及多個(gè)方面。首先,數據偏差是主要原因之一,如果AI的訓練數據缺乏多樣性或存在系統性偏見(jiàn),那么輸出的結果就可能產(chǎn)生幻覺(jué)。其次,當前的AI算法,尤其是基于統計學(xué)的算法,無(wú)法完美地適應新的、未曾見(jiàn)過(guò)的情況,從而可能導致錯誤的判斷。再次,人類(lèi)設計者的認知局限也是一大問(wèn)題,設計者和訓練者的主觀(guān)偏見(jiàn)可能無(wú)意中被編碼進(jìn)AI系統,影響其決策。最后,AI系統運行的交互環(huán)境本身充滿(mǎn)變數,復雜多變的環(huán)境因素常常超出AI系統的處理能力,導致AI幻覺(jué)的產(chǎn)生。
面對AI幻覺(jué)的普遍性和不可避免性,如何應對?首先,提升數據質(zhì)量和多樣性是基礎。通過(guò)增加訓練數據的廣度和深度,可以減少數據偏差,提高AI系統的泛化能力。其次,優(yōu)化算法設計,增強其健壯性和適應性,能夠使AI系統更好地應對新情況。第三,提升用戶(hù)教育和意識也至關(guān)重要,幫助用戶(hù)正確理解AI的能力和局限,可以有效減少因誤解而產(chǎn)生的幻覺(jué)。此外,建立倫理規范和監管機制,確保AI的發(fā)展和應用符合倫理與法律標準,對于減少AI幻覺(jué)的發(fā)生同樣重要。最后,跨學(xué)科合作在應對AI幻覺(jué)時(shí)扮演著(zhù)關(guān)鍵角色。工程師、數據科學(xué)家、心理學(xué)家、倫理學(xué)家以及法律專(zhuān)家等應共同參與到AI系統的設計和評估過(guò)程中,從各自領(lǐng)域的專(zhuān)業(yè)角度出發(fā),共同解決AI幻覺(jué)問(wèn)題。
人工智能時(shí)代下,AI幻覺(jué)是一個(gè)復雜、普遍、不可避免的問(wèn)題,這就要求我們采取多維度、多層次的策略來(lái)應對,從而最大限度地減少AI幻覺(jué)的負面影響。2023年吉印通國教科文組織發(fā)布的《教育與研究領(lǐng)域生成式人工智能指南》建議,把在課堂上使用人工智能工具的最低年齡設定為13歲。Open AI則建議13歲以下兒童禁止使用生成式人工智能,13到18歲的孩子需要在監護人指導下使用。
2023年一次可信任媒體峰會(huì )在新加坡舉行,分享了各國如何提升青少年媒介素養的舉措。如一項國外基于網(wǎng)站和播客發(fā)起的、以小學(xué)生為對象,提升媒體素養的公益活動(dòng)“SQUIZ KIDS”,幫助培養青少年分辨網(wǎng)絡(luò )上出現的錯誤信息、假信息的能力。它主要分三步:接觸到網(wǎng)絡(luò )信息時(shí)停一停(STOP),想一想(THINK),最后對一對(CHECK),和可靠的信息源對照確認是否一致。通過(guò)集合不同領(lǐng)域的知識和技能,更全面地識別問(wèn)題、找到解決方案,我們就可以期待一個(gè)更智能、更安全、更可靠的人工智能社會(huì )的到來(lái)。(作者是東北師范大學(xué)傳媒科學(xué)學(xué)院教授,吉林省教育與人工智能融合創(chuàng )新工程中心主任)▲