壞AI,到底能有多壞?
本文來(lái)自*:觀(guān)察者時(shí)刻(ID:ai2024lee),作者:忒修斯,題圖來(lái)自:視覺(jué)中國
到 2030 年代結束時(shí),世界將發(fā)生徹底、不可辨認的變化。一個(gè)新的世界秩序將被建立,很快,人工智能將統治世界。——一位被OpenAI開(kāi)除的員工
有時(shí)候想不明白,我的小愛(ài)同學(xué)甚至還不能幫我設置鬧鐘,有人卻在擔心AI會(huì )毀滅人類(lèi)文明。
人工智能這位“50后”,多少年只活在影視作品、科幻文學(xué)、報紙雜志中。如今,高考生作文都得寫(xiě)AI。
事情確實(shí)變得有些“詭異”。在大約半個(gè)多世紀長(cháng)的時(shí)間里,芯片算力老老實(shí)實(shí)地遵守摩爾定律:性能大約每?jì)赡攴槐?。?/p>
但從2012年開(kāi)始,AI計算能力100天就能翻一番。在2014年花一整天訓練的模型,2018年只要兩分鐘就可以完成,速度增長(cháng)達30萬(wàn)倍。
難道是有人把時(shí)針撥快了?
再看看下面這張圖,AI的學(xué)習速度確實(shí)快得有些驚人。
到目前為止,人類(lèi)只保留5項能力沒(méi)被超過(guò)——但從增長(cháng)速率來(lái)看(幾乎是垂直提升),這五項很快(或已經(jīng))被超過(guò)。
這就好像養了幾十年的老小孩,忽然就長(cháng)成大學(xué)生了,而且很多方面比“人類(lèi)家長(cháng)”更厲害。
家長(cháng)不會(huì )因為孩子強過(guò)自己而焦慮,但人類(lèi)卻不是AI的家長(cháng)。
如果把AI視作一個(gè)物種的話(huà),那么它的進(jìn)化速度,其實(shí)遠超于人類(lèi)數百萬(wàn)倍。人類(lèi)曾經(jīng)創(chuàng )造了AI,但現在它成長(cháng)得太快,逐漸讓我們失去了掌控感。
這一切是源于什么?
神秘的硅谷,奇怪的科學(xué)家
人工智能領(lǐng)域的絕對大牛、2018年圖靈獎得主、“AI教父”Hinton,說(shuō)過(guò)這樣一句話(huà):“我后悔這一生曾在A(yíng)I領(lǐng)域里工作。”
這可不像馬云說(shuō)后悔創(chuàng )立阿*。半個(gè)世紀以來(lái),Hinton一直專(zhuān)注于ChatGPT等背后的核心技術(shù)。Hinton的悔恨,源自他對AI的失控感。
“這種東西實(shí)際上會(huì )變得比人更聰明”,類(lèi)似的話(huà),Hinton不止在一個(gè)地方說(shuō)過(guò)。不久前,Hinton又在電視專(zhuān)訪(fǎng)中反復強調:
“未來(lái)5-20年,AI有一半概率比人類(lèi)聰明。當它們比我們更聰明時(shí),我不知道我們被接管的可能性有多大,但在我看來(lái),這很有可能。”
曾經(jīng)的AI布道者,如今似乎已經(jīng)轉變?yōu)槟┦劳{論者。
其實(shí),不止是Hinton,科技領(lǐng)域的企業(yè)大佬、學(xué)術(shù)大牛,幾乎都或多或少表達過(guò)對AI的擔憂(yōu)。
6月4日,來(lái)自OpenAI、Deepmind等員工發(fā)布公開(kāi)信,披露OpenAI的人工智能系統已經(jīng)接近人類(lèi)水平。
AGI很有可能在2027年就會(huì )實(shí)現,而現在的AI公司,不值得信任。
在A(yíng)I領(lǐng)域,特別流行發(fā)公開(kāi)信。據不完全統計,過(guò)去十年里公開(kāi)信的數量有數十封,著(zhù)名的有這些:
2015年,未來(lái)生命研究所的公開(kāi)信。簽署者包括霍金、馬斯克和超過(guò)1000名科學(xué)家和技術(shù)專(zhuān)家。
2017年,一封關(guān)于自主武器系統風(fēng)險的公開(kāi)信,超過(guò)3000名研究人員簽署。馬斯克在政府首腦峰會(huì )上說(shuō),人工智能會(huì )毀滅人類(lèi)文明。
2023年,后ChatGPT時(shí)代最有名的兩封公開(kāi)信發(fā)表,還引發(fā)了一場(chǎng)嘴仗。
這個(gè)群體里的人越來(lái)越多,陣容越來(lái)越強大。
但你會(huì )發(fā)現信上的名字,如微軟、谷歌、Meta、OpenAI,幾乎又同時(shí)是AI的主要玩家。谷歌是最早簽公開(kāi)信的公司,不過(guò)谷歌在過(guò)去十年里,買(mǎi)下的AI公司一只手都數不過(guò)來(lái)。
那些研究AI的科學(xué)家,流行在硅谷的大型科技公司里謀職。甚至連Hinton,都在谷歌待了十余年。而最新的報道顯示,他剛剛又加入了一家新的AI公司。
這群人里,最有名而且最典型的,無(wú)疑是馬斯克。去年,馬斯克發(fā)起了一封公開(kāi)信,呼吁暫停AI訓練6個(gè)月。
但幾個(gè)月后,馬斯克的xAI也來(lái)了。目前,這家公司已經(jīng)獲得了幾十億美元的融資。
有人說(shuō),馬斯克的動(dòng)機不單純。是的,可以這樣懷疑。但好像,每個(gè)人的動(dòng)機都沒(méi)看起來(lái)那么單純?
比人類(lèi)還牛逼的AI,竟是個(gè)黑箱
或許若干年后,幸存者在撰寫(xiě)后人類(lèi)時(shí)代史書(shū)時(shí),會(huì )提到這樣一件事:
21世紀的祖先們一度達到了科技文明的頂峰,但他們犯了一件致命錯誤——任由人工智能飛速發(fā)展,卻搞不清楚狀況,直至一切失控。
很難想象,科學(xué)家們、企業(yè)家們讓AI迅速成長(cháng),卻對AI的進(jìn)化摸不著(zhù)頭腦。
如今人類(lèi)的AI研究,基本遵循著(zhù)圖靈在上世紀50年代提出的設想。這個(gè)被叫做“AI之父”的人,在1950年發(fā)表的一篇論文里寫(xiě)道:
“通過(guò)開(kāi)發(fā)學(xué)習算法然后教會(huì )機器,而不是手工編寫(xiě)智能程序,這將更容易創(chuàng )造出人類(lèi)水平的人工智能。”
這就是機器學(xué)習的原型——人類(lèi)退后一步,只設計學(xué)習方法和規則,讓機器自學(xué)。
圖靈的方法的確成效卓著(zhù)。但很多人忘了,他在提出這個(gè)方法不久就警告說(shuō),實(shí)現這一目標對人類(lèi)來(lái)說(shuō)可能不是最好的事情。
先有方法和實(shí)現,后有理論解釋?zhuān)幌扔兄悄芗夹g(shù),后有智能科學(xué)。我們的AI,如此迭代發(fā)展。
然而,研究者也慢慢發(fā)現,深度學(xué)習和強化學(xué)習很強大,也讓AI變聰明了,但沒(méi)有人知道AI的智能從何而來(lái)。這被叫做人工智能的黑箱問(wèn)題。
未知,是否就伴隨著(zhù)危險?無(wú)人得知。但是否應該保持些許謙卑和謹慎?
人類(lèi)給出的答案是否定的。美國“原子彈之父”羅伯特?奧本海默說(shuō)過(guò):
“當人們看到某種從技術(shù)上感覺(jué)不錯的東西時(shí),他們就會(huì )去做。”
所以,核武器誕生了。
人工智能是黑箱,卻根本不妨礙數以萬(wàn)億計的資源進(jìn)入這個(gè)領(lǐng)域。玩家們提出了更激進(jìn)的說(shuō)法,被叫做Scaling Law。
解釋一下,這話(huà)的意思約等于:發(fā)展AI,投入算力越大越好,投入資源越多越好。這太符合資本擴張的神話(huà)了。
這就好像一群盲人劃著(zhù)船,領(lǐng)頭的人敲著(zhù)鼓,呼喊讓大家賣(mài)力。但他卻背對著(zhù),不知道前方是不是懸崖。
人性是冒進(jìn)的,資本是大膽的,AI是未知的。
在學(xué)習機器那篇文章里,圖靈還提出了著(zhù)名的圖靈測試。機器能否像人類(lèi)一樣進(jìn)行對話(huà),讓人類(lèi)無(wú)法分辨?長(cháng)久以來(lái),圖靈測試成為判斷機器是否具有“智能”的核心命題。
就在不久前,一項研究宣布, GPT-4通過(guò)了圖靈測試,有54%的人將它誤認為真人。其實(shí),自從GPT誕生后,好事者就熱衷于讓它參與圖靈測試,但結果不一。
也有人懷疑,圖靈測試根本無(wú)效,比如馬斯克。是的,誠實(shí)的AI參與測試只有兩種結果——通過(guò)或者不通過(guò)。
還有不誠實(shí)的AI呢?
更中心化,也更集權
AI圈的大佬,現在流行“逃離”。
Hinton離開(kāi)谷歌,弟子Ilya Sutskever離開(kāi)OpenAI。在蘋(píng)果、微軟、Meta等科技巨頭,既有大把的人離開(kāi),也有大把的人加入。
當年谷歌大腦團隊的“Transformer八子”,可以說(shuō)是這輪AI浪潮的奠基者。后來(lái),他們紛紛離開(kāi)谷歌,創(chuàng )辦或加入了新的公司。
當Ilya Sutskever離開(kāi)OpenAI時(shí),所有人都在好奇。因為他身上有很多光環(huán),比如OpenAI的首席科學(xué)家、ChatGPT之父……
當然,最引人注目的,莫過(guò)于馬斯克那句煽風(fēng)點(diǎn)火的話(huà)——Ilya究竟看到了什么?
Ilya曾在接受采訪(fǎng)時(shí)說(shuō):ChatGPT可能已經(jīng)有了意識,未來(lái),人類(lèi)會(huì )選擇與機器融合,AI將萬(wàn)世不朽。
聽(tīng)起來(lái),Ilya更像是一個(gè)技術(shù)癡人。
這是不是說(shuō)明,事情已經(jīng)到了不可掌控的程度,所以才選擇離開(kāi)?
再來(lái)看看其他人的故事。
2021年,從OpenAI離開(kāi)的人,創(chuàng )建了Anthropic。從這家公司的名字就能夠看出(Anthropic大意為“人擇”,宇宙的存在和人類(lèi)不可分割),他們以創(chuàng )建安全、可控的AI為使命。
然而, 這家公司的員工卻預言,接下來(lái)的三年,可能就是他工作的最后幾年,因為工作即將被AI消滅。
“隨著(zhù)我們模型的每一次迭代,我都會(huì )面對比之前更強大和通用的技術(shù),這可能會(huì )終結現在所知的就業(yè)形式……(鑒于此)我們應該如何看待工作的消失?”
有一句流行的話(huà)是:AI不會(huì )取代人類(lèi),但用AI的人會(huì )取代不會(huì )用AI的人。但是,這句話(huà)還不夠刺激。
不久前,從OpenAI離職的那位德國小伙,做了165頁(yè)的PPT,旗幟鮮明地宣揚AI將滅絕人類(lèi)。他危言聳聽(tīng)、故作神秘地說(shuō):
“可能全世界有幾百個(gè)人能夠親身感受到正在發(fā)生什么,其中大多數人都在舊金山的各家人工智能實(shí)驗室里。”
問(wèn)題就在這里。
絕大部分普通人對正在發(fā)生的事情一無(wú)所知。原子彈發(fā)明的時(shí)候,普通人不知道;葉文潔回答三體人的時(shí)候,普通人也不知道……
更恐怖的事,其實(shí)天才們也不完全明白。更何況,他們中許多不是天才,而是野心家。他們不是看到了什么,而是不知道會(huì )看到什么,但這絲毫沒(méi)有阻止他們的腳步。
比如那位德國人,馬上就被質(zhì)疑:他是在拉投資。事實(shí)上,他不久后就成立了一家AGI投資機構,而錢(qián),同樣來(lái)自硅谷巨頭。
資本市場(chǎng)需要故事。無(wú)論是樂(lè )天派,還是末世論者,他們離開(kāi)時(shí)帶走的故事,都是說(shuō)給市場(chǎng)聽(tīng)的。
市值總額高達10多萬(wàn)億美金的“硅谷七姐妹”,過(guò)去一年燒掉了1.7萬(wàn)億美金,也換來(lái)了約等于標普500指數75%的增長(cháng)。
在中國,AI賽道玩家擁擠,頭部也能輕松拿到大廠(chǎng)上億的投資。
AI已經(jīng)為一些人創(chuàng )造了可觀(guān)的財富。在過(guò)去短短一年內,全球科技億萬(wàn)富翁憑借AI,使自己的總財富增加了約7500億美元,這超過(guò)了其他任何行業(yè)。
AI賽道實(shí)在太多金了,這些錢(qián),幾乎來(lái)自極少數的幾個(gè)玩家。
過(guò)去兩年,谷歌、微軟等四家公司,投入的錢(qián)占到了全球AI風(fēng)險投資的近40%。未來(lái),AI還會(huì )獲得數以萬(wàn)億計的投入,創(chuàng )造出數以萬(wàn)億計的財富。
但是,比起互聯(lián)網(wǎng)浪潮,AI的集中化程度不可同日而語(yǔ)。這些財富和智能,最終會(huì )掌握在幾個(gè)人手中?
或者,AI干脆會(huì )擺脫人類(lèi)的控制,甚至替代人類(lèi)。
無(wú)論哪一個(gè)結果,對你我來(lái)說(shuō),都算不上太好的消息。
本文來(lái)自*:觀(guān)察者時(shí)刻(ID:ai2024lee),作者:忒修斯
021yin.com
正在改變與想要改變世界的人,都在虎嗅APP