硅谷大佬集體暴怒!AI行業(yè)面臨大洗牌?
硅谷又搞幺蛾子了!加州最近拋出的一枚重磅炸彈——「SB-1047」AI法案,瞬間點(diǎn)燃了整個(gè)科技圈的怒火。這場(chǎng)旨在規范AI發(fā)展的立法行動(dòng),卻意外成為了一場(chǎng)關(guān)乎創(chuàng )新與管控的世紀之戰。
從Meta首席AI科學(xué)家楊立昆到AI教父級人物吳恩達,硅谷的科技大佬們紛紛登上社交媒體的“戰車(chē)”,高舉反對吉印通。
參議員斯科特·維納倒是一副胸有成竹的樣子。在他看來(lái),SB-1047就是為了給那些AI巨頭們戴上“緊箍咒”。但這個(gè)“緊箍咒”究竟是保護未來(lái)的明智之舉,還是會(huì )成為壓垮創(chuàng )新駱駝的最后一根稻草?
有人“拱火”,有人“潑水” ,這場(chǎng)關(guān)于安全與創(chuàng )新的拉鋸戰,正牽動(dòng)著(zhù)整個(gè)硅谷的神經(jīng)。
多位科技圈大佬在社交媒體平臺上轉發(fā)“STOP SB-1047”的網(wǎng)站,呼吁人們反對該法案的通過(guò)。
STOP-SB 1047網(wǎng)頁(yè)截圖
隨著(zhù)"STOP SB-1047"的呼聲在網(wǎng)絡(luò )上此起彼伏,這場(chǎng)辯論的焦點(diǎn)逐漸浮出水面:AI監管的邊界到底在哪里?
在A(yíng)I迅猛發(fā)展的同時(shí),相關(guān)監管也在跟進(jìn),SB-1047法案就是其一。
就像汽車(chē)上路前需要通過(guò)嚴格的安全測試,對AI產(chǎn)品也應該提出同樣的要求。
SB-1047法案中提出的要求是開(kāi)發(fā)者在訓練人工智能模型之前做出一定的安全決定,遵守各種安全要求,并報告人工智能安全事件。并且,政府會(huì )設置專(zhuān)有部門(mén)監督這些人工智能模型,并對違反該法案的行為實(shí)行民事處罰。
也就是說(shuō),AI公司發(fā)布技術(shù)之前必須進(jìn)行嚴格的安全測試。一旦AI脫韁造成嚴重后果,公司將無(wú)法逃脫法律的“長(cháng)臂”。
該法案的矛頭直指那些AI界的“巨無(wú)霸”——訓練成本超過(guò)1億美元的大型模型。這些數字時(shí)代的“龐然大物”智能驚人,但同時(shí)也潛藏著(zhù)不可忽視的風(fēng)險。
法案試圖通過(guò)政府監管這個(gè)“緊箍咒”,賦予相關(guān)部門(mén)審查、一鍵關(guān)停和罰款的“尚方寶劍”,以確保AI發(fā)展不會(huì )脫離正軌。
SB-1047賦予了政府介入的權力
法案的初稿一經(jīng)發(fā)布,連“AI三巨頭”中的兩位——杰弗里·辛頓和約書(shū)亞·本吉奧都點(diǎn)頭稱(chēng)是。但為何第三位楊立昆卻如此抵制呢?
其實(shí),以楊立昆為首的“反對派”主要聚焦在法案中的 “連坐條例”——如果這些模型被他人惡意使用時(shí),該法案要求AI開(kāi)發(fā)者對其開(kāi)發(fā)的模型承擔民事甚至刑事責任。
眾所周知,AI發(fā)展的根基就是技術(shù)開(kāi)源的。而這個(gè)“連坐”條例會(huì )讓技術(shù)開(kāi)發(fā)者因他人的不當使用而自身陷入法律泥潭。這無(wú)疑會(huì )推動(dòng)AI向閉源方向發(fā)展,給開(kāi)源創(chuàng )新蒙上一層陰影。
SB-1047條例中關(guān)于刑事界定部分
由于加州特殊的地理位置,硅谷匯聚了斯坦福、加州理工等頂尖學(xué)府,以及谷歌、蘋(píng)果、OpenAI、Meta等科技巨擘。SB-1047的影響恐怕會(huì )如蝴蝶效應般擴散。
面對這場(chǎng)可能改變游戲規則的立法風(fēng)暴,楊立昆在社交媒體上發(fā)出警示:“加州科技產(chǎn)業(yè)的末日要來(lái)了?”
楊立昆X社交媒體截圖
硅谷之所以能成為全球科技巨頭趨之若鶩的圣地,就是因為其鼓勵創(chuàng )新、開(kāi)放合作的文化DNA,以及科技巨頭盤(pán)踞的產(chǎn)業(yè)優(yōu)勢。
楊立昆等人認為,SB-1047法案一旦通過(guò),等于是“逼迫”科技巨頭出走,尋找更加寬松自由的發(fā)展環(huán)境。
一邊是保障安全的善意,一邊卻可能成為創(chuàng )新的絆腳石。這場(chǎng)監管風(fēng)暴是否會(huì )讓加州在全球AI競賽中失去先機?
硅谷不再是科技中心的論調開(kāi)始在空氣中彌漫。
法案中的嚴格條例和連帶責任條款,宛如“人在家中坐,鍋從天上來(lái)”,尤其讓初創(chuàng )公司如履薄冰。
在只有大公司才能承擔的合規成本面前,初創(chuàng )公司更有可能“卷鋪蓋”逃離加州??萍鉴櫆弦矔?huì )越來(lái)越大,而硅谷也將會(huì )永遠失去這些創(chuàng )新的“火種”。
法案的制定者主要是出于對AI大模型潛在危害的預警,卻忽視了它帶來(lái)的福利。這種處理方式可能導致技術(shù)創(chuàng )新的“緩慢加載”甚至“死機”,從而影響整個(gè)AI生態(tài)系統的“版本迭代”。
社交媒體X上網(wǎng)友的擔憂(yōu)評論
與楊立昆的擔憂(yōu)同理,許多網(wǎng)友認為監管措施本身也可能成為潘多拉的魔盒。例如法案中提到的“一鍵關(guān)閉”功能,就像核武器的按鈕一樣危險。如果被惡意觸發(fā),后果不敢設想。
AI大師吳恩達的態(tài)度則相對緩和。他提出法案應重新思考監管對象,即應該監管AI的具體應用,而非技術(shù)本身。這種「技術(shù)中立論」得到了不少支持者的呼應。他們認為,應該給AI戴上行為準則的項圈,而不是給它套上發(fā)展的枷鎖。
支持的一方則表示公眾對AI的擔憂(yōu)并非空穴來(lái)風(fēng)。近半數機器學(xué)習研究人員都認為,強大的AI系統可能釀成災難。
AI Impacts研究論文表明半數研究院對AI的擔憂(yōu)
而美國現行法律對AI導致的大規模傷亡事件責任界定模糊不清,更是火上澆油。不少網(wǎng)友呼吁通過(guò)法律來(lái)馴服科技巨頭的“野蠻生長(cháng)”,反映了公眾對AI監管的迫切期望。
SB-1047法案的爭論在硅谷圈還未結束,但對AI發(fā)展的態(tài)度幾乎是全球統一:既渴望創(chuàng )新,又擔憂(yōu)風(fēng)險。
面對AI技術(shù)的快速發(fā)展,全球各地都在摸著(zhù)石頭過(guò)河,走自己的路。
企業(yè)自省的戰線(xiàn)上,OpenAI推出的CriticGPT模型堪稱(chēng)一記妙招。這個(gè)“AI查AI”的創(chuàng )新方案,猶如給ChatGPT配了一個(gè)智能糾錯員,展現了科技公司自我約束的決心。
而在政府監管層面,不同國家和地區的側重點(diǎn)均于本國國情相結合。
歐盟率先打造了全球首部全面監管AI的法律武器——
日本則憑借其豐富的官產(chǎn)學(xué)合作經(jīng)驗,選擇從個(gè)人信息和數據保護入手,通過(guò)明確數據主體的權責劃分,推動(dòng)政府和企業(yè)形成協(xié)同研發(fā)網(wǎng)絡(luò ),構建有利于A(yíng)I安全發(fā)展的生態(tài)系統。
德國則依托其工業(yè)資源優(yōu)勢,將AI安全立法與“工業(yè)4.0”相融合成“德國特色”,重點(diǎn)關(guān)注自動(dòng)駕駛、智能醫療等直接影響經(jīng)濟和生活質(zhì)量的領(lǐng)域。
從加州的SB-1047法案到歐盟的《人工智能法案》,從日本的數據保護策略到德國的工業(yè)融合方案,每種監管思路都反映了不同的價(jià)值觀(guān)和社會(huì )訴求。
面對AI這個(gè)既充滿(mǎn)希望又潛藏風(fēng)險的“雙刃劍”,如何構建一個(gè)既能激發(fā)創(chuàng )新活力,又能確保安全的監管框架,仍然是一個(gè)懸而未決的問(wèn)題。
針對加州新法案SB-1047,還是個(gè)未知數,對此你怎么看?