AI教父、諾貝爾獎得主警告:AI或將失控,未來(lái)堪憂(yōu)!
近日,諾貝爾物理學(xué)獎的兩位獲獎?wù)叨寂c人工智能密切相關(guān),其中一位更是被譽(yù)為 “人工智能教父” 的杰弗里?辛頓。辛頓在2012年的研究為今天的神經(jīng)網(wǎng)絡(luò )奠定了基礎,但在2023年,他卻選擇離開(kāi)谷歌,開(kāi)始發(fā)出對人工智能的警告。
圖源備注:圖片由AI生成,圖片授權服務(wù)商Midjourney
在去年接受《紐約時(shí)報》采訪(fǎng)時(shí),辛頓談到了自己辭職的原因。他曾認為谷歌是一個(gè) “合適的監管者”,但在微軟與 OpenAI 合作推出 GPT-4這一強大語(yǔ)言模型后,他開(kāi)始改變了看法。他承認,自己曾經(jīng)覺(jué)得人工智能的巔峰還遙遙無(wú)期,甚至預估要30到50年才會(huì )到來(lái),但如今他的想法完全改變了。
辛頓在接受 CBS 新聞采訪(fǎng)時(shí)表示,世界已經(jīng)到了一個(gè) “關(guān)鍵時(shí)刻”,而人們對人工智能的擔憂(yōu)是非常合理的。他并不認為這一切會(huì )在短期內發(fā)生,但也強調了我們面臨的潛在風(fēng)險。
離開(kāi)谷歌后,辛頓已經(jīng)多次表明,人工智能可能隨時(shí)會(huì )超出人類(lèi)的控制,而一旦發(fā)生這樣的情況,后果將不堪設想。
在與諾貝爾委員會(huì )的對話(huà)中,辛頓坦言,面對人工智能的發(fā)展,他感到非常迷茫,無(wú)法給出一個(gè)簡(jiǎn)單的解決方案。他希望獲得諾貝爾獎能增加他發(fā)言的可信度,畢竟他曾是這一技術(shù)的推動(dòng)者。
如今,辛頓作為多位知名科技領(lǐng)袖之一,加入了呼吁暫停人工智能發(fā)展的行列。他對未來(lái)的看法讓人深思,雖然技術(shù)的進(jìn)步令人興奮,但背后的風(fēng)險同樣不容忽視。