英偉達盤(pán)中“閃崩”近6%!美國監管機構將展開(kāi)反壟斷調查,耶倫發(fā)出AI“重大風(fēng)險”警告
每經(jīng)編輯:杜宇
6月6日美股,英偉達收跌1.18%,報1209.98美元,收盤(pán)市值回落至2.9765萬(wàn)億美元。該股股價(jià)早盤(pán)“閃崩”,一度較盤(pán)初所創(chuàng )的盤(pán)中紀錄高位回落近6%。
值得注意的是,6月6日盤(pán)后仍持有英偉達股票的投資者,將在6月7日收盤(pán)后獲得9股額外股票,股價(jià)也將作出調整以反映分拆。6月10日(下周一),英偉達開(kāi)始以調整后的價(jià)格交易。
英偉達在歷史上曾多次拆股。其中2000年、2001年和2006年都是按2:1的比例拆分股票。2007年,英偉達曾以3:2的比例進(jìn)行拆股。
不過(guò),從歷史數據來(lái)看,拆股并非股價(jià)上漲的催化劑。美股近年來(lái)240次拆股案例顯示,這些股票在拆股后兩周內平均漲幅只有0.44%,不到一半的案例跑贏(yíng)了標普500指數。六個(gè)月內這些股票的平均收益率為6.6%,僅略高于同期標普500指數的5.4%。
但英偉達的歷史數據,則要漂亮得多。2021年拆股后,英偉達曾在6個(gè)月內曾上漲近40%,上次拆分至今,英偉達股價(jià)已上漲超過(guò)500%。
蘋(píng)果(AAPL)收跌0.71%,報194.48美元,收盤(pán)市值2.9821萬(wàn)億美元。
微軟(MSFT)收漲0.12%,報424.52美元,收盤(pán)市值3.1551萬(wàn)億美元。
Meta收跌0.26%,谷歌A漲0.78%,特斯拉漲1.65%,亞馬遜漲2.02%連續四個(gè)交易日反彈本周已累漲4.82%。
此外,臺積電ADR收跌0.52%,也脫離收盤(pán)歷史最高位,但美股盤(pán)初漲至164.70美元繼續創(chuàng )盤(pán)中歷史新高;伯克希爾哈撒韋B類(lèi)股漲0.3%,AMD漲0.36%,禮來(lái)制藥漲0.66%時(shí)隔一個(gè)交易日再創(chuàng )收盤(pán)歷史新高。
美國監管機構將對英偉達、微軟和OpenAI展開(kāi)反壟斷調查
當地時(shí)間6月6日消息,美國聯(lián)邦貿易委員會(huì )(FTC)和司法部將對微軟、OpenAI和英偉達展開(kāi)反壟斷調查,審查這些強大公司在人工智能行業(yè)的影響力,一位熟悉情況的人士向CNBC確認了這一點(diǎn)。
FTC將主導對微軟和OpenAI的調查,而司法部將專(zhuān)注于英偉達,調查將集中在公司的行為上,而不是并購活動(dòng),據消息人士稱(chēng)。
《紐約時(shí)報》首先報道了這項調查。
隨著(zhù)像OpenAI和Anthropic這樣的初創(chuàng )公司——分別是ChatGPT和Claude聊天機器人背后的公司——在生成式AI市場(chǎng)上獲得動(dòng)力,谷歌、微軟、亞馬遜和Meta等科技巨頭一直在進(jìn)行一場(chǎng)AI軍備競賽,競相整合這項技術(shù),以確保他們不會(huì )在這個(gè)預計在十年內收入將超過(guò)1萬(wàn)億美元的市場(chǎng)中落后。
例如,微軟在2019年首次向OpenAI投資了10億美元。自那以后,其投資規模已膨脹至約130億美元。微軟在其Copilot聊天機器人中大量使用OpenAI的模型,并在其Azure云上提供開(kāi)源模型。
巨額投資是必要的,因為AI模型的構建和訓練眾所周知地昂貴,需要數千個(gè)專(zhuān)業(yè)芯片,到目前為止,這些芯片主要來(lái)自英偉達。Meta正在開(kāi)發(fā)自己的名為L(cháng)lama的模型,表示它正在花費數十億美元購買(mǎi)英偉達的圖形處理單元,這是幫助這家芯片制造商年收入增長(cháng)超過(guò)250%的眾多公司之一。
即將進(jìn)行的反壟斷調查的消息是在一群現任和前任OpenAI員工周二發(fā)表公開(kāi)信幾天后傳來(lái)的,他們表達了對AI行業(yè)快速發(fā)展的擔憂(yōu),盡管缺乏監督,也沒(méi)有為那些愿意發(fā)聲的人提供舉報者保護。
“AI公司有強烈的財務(wù)動(dòng)機避免有效的監督,我們不認為定制的公司治理結構足以改變這一點(diǎn),”員工們寫(xiě)道,并補充說(shuō),公司“目前只有微弱的義務(wù)與政府分享這些信息的一部分,與民間社會(huì )沒(méi)有任何義務(wù)。我們不認為他們都能被信賴(lài)自愿分享?!?/p>
OpenAI沒(méi)有回應置評請求。微軟和英偉達拒絕置評。
圖片來(lái)源:視覺(jué)中國
美財長(cháng)耶倫警告:金融行業(yè)廣泛應用AI帶來(lái)潛在“重大風(fēng)險”
當地時(shí)間6月6日,美國財政部長(cháng)耶倫出席了金融穩定監督委員會(huì )(FSOC)有關(guān)人工智能與金融穩定的會(huì )議,并在開(kāi)幕致辭中警告金融機構使用人工智能技術(shù)的潛在風(fēng)險。
有分析稱(chēng),這是耶倫迄今為止對人工智能作出的最廣泛評論。據一位美國財政部官員向媒體透露,耶倫本人也嘗試用過(guò)人工智能聊天機器人。
耶倫在演講中透露,人工智能與金融穩定是拜登政府高度重視的話(huà)題,“在未來(lái)幾年只會(huì )變得更加重要”。金融公司使用人工智能帶來(lái)的“巨大機遇和重大風(fēng)險”已成為美國財政部和金融穩定監督委員會(huì )的首要議題。
耶倫承認,人工智能為金融系統提供了巨大機遇,例如通過(guò)AI的預測能力進(jìn)行投資組合管理,利用AI檢測異常的能力來(lái)打擊欺詐和非法融資,客服也開(kāi)始實(shí)現自動(dòng)化。在最新的發(fā)展中,自然語(yǔ)言處理、圖像識別和生成式人工智能有助于金融服務(wù)成本更低和更易于獲?。?/p>
“我們看到,如果使用得當,人工智能可以提高效率、準確性和金融產(chǎn)品的可及性?!?/p>
但她同時(shí)警告稱(chēng),金融機構使用AI在促進(jìn)機遇的同時(shí)伴隨著(zhù)“重大風(fēng)險”(significant risks):
“特定的脆弱性可能源于人工智能模型的復雜性和不透明性,風(fēng)險管理框架不足以應對人工智能風(fēng)險,以及由于許多市場(chǎng)參與者依賴(lài)相同的數據和模型而出現的相互關(guān)聯(lián)特征。
開(kāi)發(fā)模型、提供數據和云服務(wù)的供應商集中度過(guò)高,也可能會(huì )加劇現有的第三方服務(wù)提供商風(fēng)險。數據不足或有缺陷則可能延續現有的偏見(jiàn)或引入新的金融決策偏見(jiàn)?!?/p>
有分析指出,耶倫意在警告,如果許多投資者都依賴(lài)于產(chǎn)生相同結果的AI工具,這可能導致某些熱門(mén)交易的倉位押注擁擠,從而加劇市場(chǎng)上行或下行的走勢。
同時(shí),如果只有少數幾家公司有能力提供AI模型,一旦其中一家公司出現問(wèn)題,許多金融機構可能受到波及。更別提AI模型有時(shí)會(huì )產(chǎn)生有偏差或者歧視性的結果,但耶倫沒(méi)提AI系統產(chǎn)生錯誤答案的“幻覺(jué)”問(wèn)題。
OpenAI、谷歌現任及前任員工聯(lián)名警告:AI失控或導致人類(lèi)滅絕
當地時(shí)間4日,13位來(lái)自OpenAI和Google的現任及前任員工吉印通發(fā)布了一封公開(kāi)信,引發(fā)廣泛關(guān)注。這些員工在信中表達了對人工智能技術(shù)潛在風(fēng)險的嚴重擔憂(yōu),并呼吁相關(guān)公司采取更加透明和負責任的措施來(lái)應對這些風(fēng)險。
這封公開(kāi)信由多位知名人士聯(lián)名背書(shū),包括被譽(yù)為“人工智能教父”的杰弗里?辛頓、因開(kāi)創(chuàng )性AI研究獲得圖靈獎的約書(shū)亞?本吉奧以及AI安全領(lǐng)域的學(xué)者斯圖爾特?羅素。
圖片來(lái)源:Right To Warn AI
信中指出,盡管人工智能技術(shù)可能會(huì )給人類(lèi)帶來(lái)巨大益處,但其帶來(lái)的風(fēng)險同樣不容忽視。這些風(fēng)險包括加劇社會(huì )不平等、操縱和虛假信息傳播,以及自主AI系統失控可能導致的人類(lèi)滅絕。信中強調,這些風(fēng)險不僅得到了人工智能公司本身的確認,也得到了世界各國政府和其他AI專(zhuān)家的認可。
公開(kāi)信簽署者們表示,他們希望在科學(xué)界、政策制定者和公眾的指導下,能夠充分緩解這些風(fēng)險。然而,他們擔心,人工智能公司由于強烈的經(jīng)濟動(dòng)機,可能會(huì )避免接受有效的監督。他們認為,僅靠現有的公司治理結構不足以解決這一問(wèn)題。
信中還提到,人工智能公司掌握著(zhù)大量關(guān)于其系統能力和局限性、保護措施的充分性以及各種風(fēng)險水平的非公開(kāi)信息。然而,這些公司目前對與政府分享信息的義務(wù)很弱,且完全沒(méi)有義務(wù)與公眾分享。簽署者們認為,不能完全依賴(lài)這些公司自愿分享信息。
信中提到,由于嚴格的保密協(xié)議,員工們在表達對AI風(fēng)險的擔憂(yōu)時(shí),面臨著(zhù)種種限制。而目前對于舉報人的保護措施尚存在不足,一些員工擔心因提出批評而遭受報復。
聯(lián)名信呼吁人工智能公司承諾員工對公司提出風(fēng)險相關(guān)的批評時(shí),不對其進(jìn)行打擊報復,建立匿名舉報機制,支持開(kāi)放批評的文化,并保護員工公開(kāi)分享風(fēng)險相關(guān)信息的權利。
圖片來(lái)源:X
OpenAI前員工丹尼爾?科泰洛 (Daniel Kokotajlo)是此次聯(lián)名信公開(kāi)署名人員中的一位。他在社交平臺上連發(fā)15條消息表示:“我們中一些最近從OpenAI辭職的人聚集在一起,要求實(shí)驗室對透明度作出更廣泛的承諾?!?/p>
丹尼爾提到,他今年四月辭職,是因為對該公司在構建通用人工智能方面是否會(huì )采取負責任的行為失去了信心。他指出,盡管他希望公司在A(yíng)I功能越來(lái)越強大的同時(shí),能在安全研究方面投入更多資金,但OpenAI并未做出相應調整,導致多名員工相繼辭職。
他強調,OpenAI等實(shí)驗室構建的系統有能力給人類(lèi)社會(huì )帶來(lái)巨大的好處,但如果不謹慎處理,長(cháng)期來(lái)看,可能是災難性的。他還提到,當前AI技術(shù)幾乎未收監管,主要是公司在進(jìn)行自我監管,而這種方式存在巨大的風(fēng)險。
丹尼爾透露,離職時(shí)他被要求簽署一份“封口協(xié)議”,其中包含一項不貶損條款,禁止他發(fā)表任何批評公司的話(huà),否則將失去已歸屬的股權。然而,他在深思熟慮后,依舊決定放棄簽署協(xié)議。
圖片來(lái)源:Dwarkesh Podcast
此外,6月4日,OpenAI前超級對齊部門(mén)成員利奧波德?阿申布倫納(Leopold Aschenbrenner)也在播客節目Dwarkesh Podcast中透露他被開(kāi)除的真實(shí)原因:他給幾位董事會(huì )成員分享了一份OpenAI安全備忘錄,結果導致OpenAI管理層不滿(mǎn)。
利奧波德在社交平臺表示,到2027年實(shí)現AGI是極其有可能的,需要更嚴格的監管和更透明的機制,確保人工智能的安全發(fā)展。
每日經(jīng)濟新聞綜合公開(kāi)資料
免責聲明:本文內容與數據僅供參考,不構成投資建議,使用前請核實(shí)。據此操作,風(fēng)險自擔。
每日經(jīng)濟新聞