“人工智能讓世界變得更愚蠢”?專(zhuān)家警告AI炒作“很快就會(huì )破滅”
參考消息網(wǎng)8月14日報道 據德國《商報》網(wǎng)站7月15日報道,現年54歲的認知科學(xué)家加里·馬庫斯是人工智能(AI)圈子里最具爭議的人物之一。圍繞所謂的大型語(yǔ)言模型的能力,馬庫斯與開(kāi)放人工智能研究中心(OpenAI)首席執行官薩姆·奧爾特曼以及特斯拉首席執行官埃隆·馬斯克爭論不休。奧爾特曼和馬斯克預計,人工智能將很快發(fā)展出類(lèi)人的能力。
馬庫斯卻看到了另一種危險:他認為,新的人工智能模型只是一場(chǎng)炒作,“很快就會(huì )破滅”。
《商報》記者問(wèn):馬庫斯先生,您可能是最著(zhù)名的OpenAI批評者。奧爾特曼公司的哪一點(diǎn)讓您不滿(mǎn)?
馬庫斯答:我并不反對OpenAI或奧爾特曼本人。我反對的是虛假承諾。
問(wèn):虛假承諾是指?
答:OpenAI宣布,其使命是開(kāi)發(fā)能造福全人類(lèi)的通用人工智能。人們可以向它提出任何問(wèn)題,它會(huì )理性地給出正確答案。但實(shí)際上,OpenAI的軟件既不安全也不可靠,且忽視了公眾利益。
問(wèn):奧爾特曼說(shuō),OpenAI離實(shí)現通用人工智能可能只差一兩次突破。
答:我認為,這是炒作和無(wú)稽之談。
問(wèn):為什么?
答:看看新模型GPT-4o,我認為它是構建GPT-5的一次失敗嘗試。OpenAI曾多次暗示,即將推出GPT-5,然后通用人工智能就會(huì )到來(lái)。事實(shí)卻是,人工智能的發(fā)展速度最近一直在放緩。OpenAI走錯了方向。
問(wèn):走錯方向?隨著(zhù)聊天機器人ChatGPT的推出,OpenAI引發(fā)了前所未有的人工智能熱潮。
答:ChatGPT或許很受歡迎,但并不可信。我對精明的企業(yè)家沒(méi)什么意見(jiàn),但必須指出當下流行的人工智能模型的技術(shù)局限性。只有克服這些局限性,人工智能的發(fā)展才能進(jìn)入值得信賴(lài)的軌道。
問(wèn):具體是什么讓您不安?
答:我不認為大型語(yǔ)言模型(生成式人工智能的一個(gè)子集)真的是一個(gè)好的解決方案,盡管它們很受歡迎。它們包藏了太多風(fēng)險,其中最嚴重的是錯誤信息,另一個(gè)則是幻覺(jué)。
問(wèn):也就是說(shuō),這些模型會(huì )編造答案和結果。
答:正是。什么是大型語(yǔ)言模型?它是一種概率模型,可以計算出句子中最有可能出現的下一個(gè)詞。其結果是,系統擁有驚人的模仿能力,但并不真正聰明。它們或許可以很好地解答80%的問(wèn)題,卻對剩下的20%幾乎束手無(wú)策。人們可以和聊天機器人談?wù)搸缀跞魏问虑椤?有時(shí)答案是對的,有時(shí)是錯的。但我們無(wú)法預測何時(shí)會(huì )出錯,這是一個(gè)大問(wèn)題。
問(wèn):人類(lèi)不會(huì )犯錯嗎?
答:人類(lèi)當然會(huì )犯錯,但人的錯誤與機器的錯誤截然不同。此外,人類(lèi)在某些領(lǐng)域非常出色,當今的機器則不然。以人工智能輔助駕駛為例:我們看到,很多事故都是由人類(lèi)駕駛員高估機器的能力造成的。他們看到機器正確駕駛了45分鐘,于是就認為“太好了,我能信任它”。從統計學(xué)角度看,這種想法很愚蠢。一輛在95%的場(chǎng)景中自動(dòng)駕駛的汽車(chē),會(huì )在20種情況中的某一種中做出錯誤決定。這可能會(huì )要了我們的命。這是不可接受的。
問(wèn):馬斯克認為,更多的數據將完善自動(dòng)駕駛。OpenAI也提出,數據越多,語(yǔ)言模型越強。
答:這是誤入歧途。我們看到,新推出的模型變體帶來(lái)的回報逐漸減少。進(jìn)步速度放緩。我們不會(huì )因為模型越來(lái)越大而實(shí)現通用人工智能。
問(wèn):您怎么能如此確定呢?
答:沒(méi)有什么是確定的。但在我看來(lái),用越來(lái)越多的數據“喂養”模型,從而實(shí)現通用人工智能,這種可能性微乎其微。一方面,根本沒(méi)有足夠的好數據。OpenAI已經(jīng)搜刮了互聯(lián)網(wǎng)上的人類(lèi)文本,現在又在轉錄優(yōu)兔(YouTube)視頻,但仍然不夠。另一方面,目前還不清楚更多的文本是否真的有助于人工智能的發(fā)展。就拿我的孩子們來(lái)說(shuō):他們比任何人工智能都要聰明,但他們并沒(méi)有翻閱整個(gè)互聯(lián)網(wǎng)。為什么?因為他們能更高效地分析數據,并從更多渠道獲取數據:通過(guò)眼睛、耳朵和感覺(jué)從現實(shí)生活獲取數據。人類(lèi)構建了世界運行的因果模型,但生成式人工智能做不到這一點(diǎn),所以我們無(wú)法真正信任它。
問(wèn):許多人都希望用所謂的合成數據,即人工智能生成的數據,來(lái)訓練他們的模型。
答:這是主流人工智能抓住的下一根救命稻草,其背后的想法非常糟糕。人工智能系統會(huì )產(chǎn)出滿(mǎn)是幻覺(jué)的糟糕數據,然后它們又被用來(lái)訓練其他系統。結果就是,越來(lái)越多的虛假信息污染了互聯(lián)網(wǎng)。人類(lèi)已經(jīng)在用生成式人工智能來(lái)快速炮制不可靠的產(chǎn)品,例如未經(jīng)研究、未經(jīng)核查的傳記。這樣一來(lái),人工智能不會(huì )讓世界變得更聰明,而是變得更愚蠢。
問(wèn):ChatGPT通過(guò)了圖靈測試。這是數學(xué)家艾倫·圖靈在1950年提出的一項測試:如果人類(lèi)認為一臺機器的回答是人類(lèi)的回答,那么這臺機器就是智能的。
答:拜托,圖靈測試太可怕了。也許這曾是個(gè)偉大的想法,但它已經(jīng)有74年歷史了,經(jīng)不起時(shí)間的考驗。圖靈測試更適用于驗證人類(lèi)有多么容易上當受騙。我們現在就能建立一個(gè)系統,在短期內騙過(guò)一個(gè)沒(méi)有受過(guò)心理學(xué)或人工智能訓練的天真的人。但這并不能證明什么。圖靈測試的確提出了一個(gè)正確的問(wèn)題:什么是智能?但我們仍未找到答案。