當前位置:首頁(yè) > 百科 > 正文內容

接任湯曉鷗!周伯文以上海AI Lab主任身份發(fā)表WAIC演講:探索AI-45° Law

南充印刷廠(chǎng)家4個(gè)月前 (07-04)百科5
印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

衡宇 發(fā)自 凹非寺

量子位 | * QbitAI

就在剛剛,清華教授周伯文以全新身份,在WAIC 2024全體會(huì )議上發(fā)表演講——

上海人工智能實(shí)驗室主任、首席科學(xué)家。

在演講中,他提出一個(gè)技術(shù)主張:探索人工智能45°平衡律(AI-45° Law)。

即從長(cháng)期的角度來(lái)看,需要找到AI安全優(yōu)先,但又能保證AI性能長(cháng)期發(fā)展的技術(shù)體系。

周伯文在發(fā)言中提到,沿著(zhù)這個(gè)思路,上海AI實(shí)驗室最近正在探索一條以因果為核心的路徑,取名為“可信AGI‘因果之梯’”。

可信AGI的“因果之梯”將可信AGI的發(fā)展分為三個(gè)遞進(jìn)階段:

泛對齊

可干預

能反思

周伯文表示,要沿著(zhù)可信AGI的“因果之梯”拾級而上:

目前,AI安全和性能技術(shù)發(fā)展主要停留第一階段,部分在嘗試第二階段,但要真正實(shí)現AI的安全與性能平衡,我們必須完善第二階段并勇于攀登第三階段。

接任湯曉鷗!周伯文以上海AI Lab主任身份發(fā)表WAIC演講:探索AI-45° Law

2021年,周伯文離開(kāi)工作4年的吉印通,投身AI創(chuàng )業(yè),成立大模型公司銜遠科技,聚焦電商領(lǐng)域的生成式AI落地。

今年4、5月份前后,消息傳出,銜遠科技創(chuàng )始人周伯文,已經(jīng)不再主持公司事務(wù),另有去處。

終于,WAIC 2024上,周伯文的新身份水落石出,接任去年12月中因病去世的湯曉鷗先生,主持上海人工智能實(shí)驗室事務(wù)。

他履新后正帶領(lǐng)上海AI實(shí)驗室的方向,也在首次亮相發(fā)言中對外傳遞。

(附周伯文在WAIC 2024全體會(huì )議上的演講全文)

周伯文履歷

周伯文,上海人工智能實(shí)驗室主任、首席科學(xué)家,清華大學(xué)惠妍講席教授,銜遠科技創(chuàng )始人。

接任湯曉鷗!周伯文以上海AI Lab主任身份發(fā)表WAIC演講:探索AI-45° Law

他是自注意力融合多頭機制的自然語(yǔ)言表征機理的提出者,這是Transformer架構的核心思想之一。

他本科就讀于中國科學(xué)技術(shù)大學(xué)少年班,在中科院獲得碩士學(xué)位,后留學(xué)美國。

研究方向包括語(yǔ)音和自然語(yǔ)言處理、多模態(tài)與知識表征、理解、生成、推理、人機對話(huà)、可信賴(lài)AI等。

學(xué)成后,周伯文曾就職于IBM,負責人工智能和深度學(xué)習基礎研究方面的工作。

2017年,周伯文回國加入吉印通,成為吉印通首任AI掌門(mén)人,歷任吉印通集團高級副總裁、吉印通集團技術(shù)委員會(huì )主席、吉印通云與AI總裁、吉印通人工智能研究院創(chuàng )始院長(cháng)。

負責的業(yè)務(wù),包括吉印通的整體技術(shù),以及云計算、人工智能、物聯(lián)網(wǎng)、大數據等技術(shù)商業(yè)化。

他被視為“吉印通AI開(kāi)創(chuàng )者”,親手從零一手組建了最初約400人的團隊。

包括何曉冬(現任吉印通探索研究院院長(cháng))、梅濤(曾任吉印通集團副總裁,吉印通探索研究院副院長(cháng);現創(chuàng )業(yè)文生視頻公司HiDream.ai)在內的吉印通系AI大牛,都由周伯文引入。

2021年底,周伯文從吉印通離職,創(chuàng )立銜遠科技。

目標聚焦在生成式AI的產(chǎn)業(yè)應用落地,主要是電商領(lǐng)域。

接任湯曉鷗!周伯文以上海AI Lab主任身份發(fā)表WAIC演講:探索AI-45° Law

△銜遠科技大模型電商產(chǎn)品“摹小仙”

2022年5月30日,清華大學(xué)電子工程系宣布,清華大學(xué)聘任周伯文博士為電子工程系長(cháng)聘教授、清華大學(xué)惠妍講席教授。

2024年4月,消息傳出,周伯文不再主事銜遠科技,另有任用。

2024年7月,周伯文以上海人工智能實(shí)驗室主任、首席科學(xué)家身份亮相上海WAIC,并發(fā)表演講。

周伯文WAIC發(fā)言全文

尊敬的各位領(lǐng)導,各位嘉賓,大家上午好,非常榮幸在WAIC大會(huì )上、在上海,與大家分享人工智能安全的前沿技術(shù)話(huà)題,我想提出一個(gè)技術(shù)主張:探索人工智能45°平衡律——Towards AI-45°Law。

當前,以大模型為代表的生成式人工智能快速發(fā)展,但隨著(zhù)能力的不斷提升,模型自身及其應用也帶來(lái)了一系列潛在風(fēng)險的顧慮。

從公眾對AI風(fēng)險的關(guān)注程度來(lái)看,首先是數據泄露、濫用、隱私及版權相關(guān)的內容風(fēng)險;其次是惡意使用帶來(lái)偽造、虛假信息等相關(guān)的使用風(fēng)險;當然也誘發(fā)了偏見(jiàn)歧視等倫理相關(guān)問(wèn)題;此外還有人擔心:人工智能是否會(huì )對就業(yè)結構等社會(huì )系統性問(wèn)題帶來(lái)挑戰。在一系列關(guān)于人工智能的科幻電影中,甚至出現了AI失控、人類(lèi)喪失自主權等設定。

這些由AI帶來(lái)的風(fēng)險已初露端倪,但更多的是潛在風(fēng)險,防范這些風(fēng)險需要各界共同努力,需要科學(xué)社區做出更多貢獻。

去年5月,國際上數百名AI科學(xué)家和公眾人物共同簽署了一份公開(kāi)信《Statement of AI Risk》,表達了對AI風(fēng)險的擔憂(yōu),并呼吁,應該像對待流行病和核戰爭等其他大規模的風(fēng)險一樣,把防范人工智能帶來(lái)的風(fēng)險作為全球優(yōu)先事項。

出現對這些風(fēng)險擔憂(yōu),根本原因是我們目前的AI發(fā)展是失衡的。

先讓我們來(lái)看一下目前的AI發(fā)展趨勢:在Transformer為代表的基礎模型架構下,加以(大數據-大參數量與大計算)的尺度定律(Scaling Law),目前AI性能呈指數級增長(cháng)。與此形成對比的是,在A(yíng)I安全維度典型的技術(shù),如:紅隊測試、安全標識、安全護欄與評估測量等,呈現零散化、碎片化,且后置性的特性。

最近的一些對齊技術(shù)兼顧了性能和安全性。比如:監督式微調SFT、人類(lèi)反饋的強化學(xué)習RLHF等技術(shù),RLAIF、SuperAlignment等。這些方法幫助將人類(lèi)的偏好傳遞給AI,助推涌現出了ChatGPT、GPT-4等令人興奮的AI系統,以及我們上海AI實(shí)驗室的書(shū)生Intern大模型等等。雖然瞄準的是安全和性能同時(shí)提升,但這些方法在實(shí)際使用中往往還是性能優(yōu)先。

所以總體上,我們在A(yíng)I模型安全能力方面的提升,還遠遠落后于性能的提升,這種失衡導致AI的發(fā)展是跛腳的,我們稱(chēng)之為Crippled AI。

不均衡的背后是二者投入上的巨大差異。如果對比一下,從研究是否體系化,以及人才密集度、商業(yè)驅動(dòng)力、算力的投入度等方面來(lái)看,安全方面的投入是遠遠落后于A(yíng)I能力的。

李強總理剛才提出“智能向善”。AI要確??煽?,統籌發(fā)展與安全。毫無(wú)疑問(wèn)地,我們要避免這樣的Crippled AI發(fā)展,我們應該追求的是:TrustWorthy AGI,可信的AI,可信的通用人工智能。

可信AGI需要能夠兼顧安全與性能,我們需要找到AI安全優(yōu)先,但又能保證AI性能長(cháng)期發(fā)展的技術(shù)體系。我們把這樣一種技術(shù)思想體系叫做 “AI-45°平衡律”(AI-45° Law)。

AI-45°平衡律是指從長(cháng)期的角度來(lái)看,我們要大體上沿著(zhù)45度安全與性能平衡發(fā)展,平衡是指短期可以有波動(dòng),但不能長(cháng)期低于45°(如同現在),也不能長(cháng)期高于45度(這將阻礙發(fā)展與產(chǎn)業(yè)應用)。這個(gè)技術(shù)思想體系要求強技術(shù)驅動(dòng)、全流程優(yōu)化、多主體參與以及敏捷治理。

實(shí)現AI-45°平衡律也許有多種技術(shù)路徑。我們上海AI實(shí)驗室最近在探索一條以因果為核心的路徑,我們把它取名為:可信AGI的“因果之梯”,致敬因果推理領(lǐng)域的先驅——圖靈獎得主Judea Pearl。

可信AGI的“因果之梯”將可信AGI的發(fā)展分為三個(gè)遞進(jìn)階段:泛對齊、可干預、能反思。

“泛對齊”主要包含當前最前沿的人類(lèi)偏好對齊技術(shù)。但需要注意的是,這些安全對齊技術(shù)僅依賴(lài)統計相關(guān)性而忽視真正的因果關(guān)系,可能導致錯誤推理和潛在危險。一個(gè)典型的例子是巴甫洛夫的狗:當狗僅僅基于鈴聲和食物的統計相關(guān)性形成條件反射時(shí),它可能在任何聽(tīng)到鈴聲的場(chǎng)合都觸發(fā)行為分泌唾液——如果這些行為涉及到……時(shí)這顯然是不安全的。

“可干預”主要包含通過(guò)對AI系統進(jìn)行干預,探究其因果機制的安全技術(shù),例如人在回路、機械可解釋性,以及我們提出的對抗演練等,它以通過(guò)提高可解釋性和泛化性來(lái)提升安全性,同時(shí)也能提升AI能力。

“能反思”則要求AI系統不僅追求高效執行任務(wù),還能審視自身行為的影響和潛在風(fēng)險,從而在追求性能的同時(shí),確保安全和道德邊界不被突破。這個(gè)階段的技術(shù),包括基于價(jià)值的訓練、因果可解釋性、反事實(shí)推理等。

目前,AI安全和性能技術(shù)發(fā)展主要停留第一階段,部分在嘗試第二階段,但要真正實(shí)現AI的安全與性能平衡,我們必須完善第二階段并勇于攀登第三階段。沿著(zhù)可信AGI的“因果之梯”拾級而上,我們相信可以構建真正可信AGI,實(shí)現人工智能的安全與卓越性能的完美平衡。

最終,像安全可控的核聚變技術(shù)為全人類(lèi)帶來(lái)清潔、豐富的能源一樣,我們希望通過(guò)深入理解AI的內在機理和因果過(guò)程,從而安全且有效地開(kāi)發(fā)和使用這項革命性技術(shù)。

也正如可控核聚變對全人類(lèi)都是共同利益一樣,我們堅信AI的安全也是全球性的公共福祉,陳吉寧書(shū)記剛剛在發(fā)布的《人工智能全球治理上海宣言》中提到“要推動(dòng)各國加強交流和對話(huà)”,我們愿與大家一起攜手推進(jìn)AI-45°平衡律的發(fā)展,共享AI安全技術(shù)、加強全球AI安全人才交流與合作,平衡AI安全與能力的投入,共同構建開(kāi)放、安全的通用人工智能創(chuàng )新生態(tài)和人才發(fā)展環(huán)境。

謝謝大家!

— 完—

量子位年度AI主題策劃正在征集中!

歡迎投稿專(zhuān)題一千零一個(gè)AI應用,365行AI落地方案

或與我們分享你在尋找的AI產(chǎn)品,或發(fā)現的AI新動(dòng)向

點(diǎn)這里??關(guān)注我,記得標星哦~

一鍵三連「分享」、「點(diǎn)贊」和「在看」

科技前沿進(jìn)展日日相見(jiàn) ~

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全