科學(xué)家嘗試培養AI持續學(xué)習能力
參考消息網(wǎng)8月23日報道據英國《新科學(xué)家》周刊網(wǎng)站8月21日報道,支持聊天生成預訓練轉換器(ChatGPT)等人工智能(AI)系統的算法無(wú)法邊工作邊學(xué)習,這迫使科技公司不得不花費數十億美元從頭開(kāi)始訓練新模型。盡管這是業(yè)界一直關(guān)注的問(wèn)題,但一項新研究表明,模型的設計方式存在固有問(wèn)題,不過(guò)也許有辦法解決它。
目前,大多數人工智能都是所謂的“神經(jīng)網(wǎng)絡(luò )”,其靈感來(lái)源于大腦的工作原理。人工智能“神經(jīng)網(wǎng)絡(luò )”的處理單元被稱(chēng)為“人工神經(jīng)元”。它們在開(kāi)發(fā)過(guò)程中通常會(huì )經(jīng)歷不同的階段。首先,開(kāi)發(fā)者對人工智能進(jìn)行訓練,通過(guò)算法對人工神經(jīng)元進(jìn)行微調,以更好地反映給定的數據集。然后,人工智能可被用于應對新數據,比如輸入ChatGPT的文本。不過(guò),一旦模型的神經(jīng)元在訓練階段就被設定好,它們就無(wú)法更新并利用新數據進(jìn)行學(xué)習。
這意味著(zhù),如果有了新數據,大多數大型人工智能模型都必須重新接受訓練,而這一過(guò)程可能非常昂貴,尤其是當這些新數據集由整個(gè)互聯(lián)網(wǎng)的大部分數據組成時(shí)。
研究人員一直想知道,這些模型能否在接受初始訓練后吸收新知識,從而降低成本,但一直不清楚它們能否做到這一點(diǎn)。
現在,加拿大阿爾伯塔大學(xué)的希班什·多哈雷和他的同事測試了最常見(jiàn)的人工智能模型能否適應持續學(xué)習。研究團隊發(fā)現,它們很快就失去了學(xué)習新知識的能力,大量的人工神經(jīng)元在接觸到新數據后就會(huì )停留在零值上。
多哈雷說(shuō):“如果你把它想象成你的大腦,那么一旦90%的神經(jīng)元都死了,剩下的就不夠你學(xué)習時(shí)用了。”
多哈雷及其團隊首先利用ImageNet數據庫訓練人工智能系統。該數據庫由1400萬(wàn)張帶有標簽的房屋或貓等簡(jiǎn)單物體的圖像組成。但他們并沒(méi)有按照標準行事(即訓練人工智能一次,然后通過(guò)讓其多次嘗試區分兩幅圖像來(lái)測試它),而是在區分每對圖像之后重新訓練模型。
他們用這種方法測試了一系列不同的學(xué)習算法,發(fā)現經(jīng)過(guò)幾千次的再訓練后,這些網(wǎng)絡(luò )似乎無(wú)法學(xué)習且表現很差,許多神經(jīng)元似乎“死了”,即值為零。
研究團隊還通過(guò)強化學(xué)習來(lái)訓練人工智能,讓其模擬螞蟻如何學(xué)習行走。強化學(xué)習是一種常見(jiàn)方法,它教給人工智能成功是什么樣子,并通過(guò)試錯找出規律。他們試著(zhù)調整這種技術(shù)以實(shí)現持續學(xué)習,具體方式是,每換一種表面供螞蟻行走,就重新訓練算法。之后他們發(fā)現,這也會(huì )導致人工智能明顯喪失學(xué)習能力。
多哈雷說(shuō),這個(gè)問(wèn)題似乎是這些系統的學(xué)習方式所固有的,但有一種方法可以解決問(wèn)題。研究人員開(kāi)發(fā)了一種算法,在每輪訓練后隨機激活一些神經(jīng)元,這似乎減少了表現不佳的情況。
多哈雷說(shuō):“如果一個(gè)(神經(jīng)元)已經(jīng)死了,那么我們只需讓它復活。現在它又能學(xué)習了。”
英國牛津大學(xué)的馬克·范德維爾克說(shuō),這種算法看起來(lái)很有前途,但還需要在更大的系統中進(jìn)行測試,才能確定它是否有用。
他說(shuō):“持續學(xué)習問(wèn)題的解決方案是一個(gè)價(jià)值數十億美元的重大問(wèn)題。一個(gè)真正全面的解決方案可以讓你不斷更新模型,這將大大降低訓練這些模型的成本。”(編譯/劉白云)