Nature刊文:“學(xué)術(shù)剽竊”定義正被AI模糊,我們該如何應對?
(來(lái)源:Piotr Kowalczyk,插畫(huà)家、平面設計師)
【編者按】今年四月,Science 顛覆了之前的鐵律:規定允許在論文的“方法”章節說(shuō)明后,正當地采用生成式人工智能(AI)和大語(yǔ)言模型(LLM)制作插圖、撰寫(xiě)論文內容。
如今,AI 能夠幫助研究者騰出更多思考的時(shí)間,但問(wèn)題是,這算不算剽竊?以及在什么情況下應該允許使用這項技術(shù)呢?
近日,科學(xué)記者 Diana Kwon 在 Nature 雜志上刊文討論了生成式 AI 工具在學(xué)術(shù)寫(xiě)作中的應用及其帶來(lái)的挑戰和影響。
她指出,ChatGPT 等生成式 AI 工具在節省時(shí)間、提高清晰度并減少語(yǔ)言障礙方面展現出了巨大的潛在價(jià)值,但同時(shí)也可能涉及剽竊和侵犯版權的問(wèn)題。
她還提到,AI 的使用在學(xué)術(shù)寫(xiě)作中已經(jīng)爆炸性增長(cháng),尤其是在生物醫學(xué)領(lǐng)域。然而,檢測 AI 生成的文本存在困難,因為它們可以通過(guò)輕微編輯變得幾乎無(wú)法檢測。同時(shí),AI 工具的合法與非法使用界限可能會(huì )進(jìn)一步模糊,因為越來(lái)越多的應用程序和工具正在集成 AI 功能。
最后,她認為,需要更清晰的關(guān)于 AI 在學(xué)術(shù)寫(xiě)作中使用的指導方針,以幫助研究人員和期刊確定何時(shí)使用 AI 工具是恰當的,以及如何披露其使用情況。
學(xué)術(shù)頭條在不改變原文大意的情況下,做了簡(jiǎn)單的編譯。內容如下:
從一月份哈佛大學(xué)校長(cháng)因被指控而辭職,到二月份同行評審報告中出現的剽竊文本被揭露,今年的學(xué)術(shù)界因剽竊事件而動(dòng)蕩不安。
但學(xué)術(shù)寫(xiě)作正面臨著(zhù)一個(gè)更大的問(wèn)題。生成式人工智能(AI)工具的迅速普及引發(fā)了關(guān)于這算不算剽竊以及在什么情況下應該允許使用的疑問(wèn)。路易斯安那州新奧爾良市的版權和剽竊顧問(wèn) Jonathan Bailey 說(shuō):“從完全由人撰寫(xiě)到完全由 AI 撰寫(xiě),AI 的使用范圍很廣,中間是一片巨大的混淆地帶。”
基于大語(yǔ)言模型(LLM)的生成式 AI 工具,如 ChatGPT,可以節省時(shí)間,使文本更加清晰易懂并減少語(yǔ)言障礙。現在,許多研究人員認為,在某些情況下它們是可以接受的,并且應該完全公開(kāi)其使用情況。
但這些工具使原本關(guān)于不當使用他人作品的激烈辯論變得更加復雜。LLM 經(jīng)過(guò)訓練,可以通過(guò)學(xué)習大量已發(fā)表的寫(xiě)作來(lái)生成文本。因此,如果研究人員將機器的工作成果據為己有,或者機器生成的文本與某人的作品非常相似但沒(méi)有注明來(lái)源,這可能會(huì )導致類(lèi)似剽竊的行為。這些工具還可以用來(lái)掩飾故意剽竊的文本,而且它們的使用很難被發(fā)現。英國普利茅斯大學(xué)的生態(tài)學(xué)家 Pete Cotton 說(shuō):“界定我們所說(shuō)的學(xué)術(shù)不誠實(shí)或剽竊是什么,以及邊界在哪里,將非常非常困難。”
在 2023 年一項針對 1600 名研究人員進(jìn)行的調查中,68% 的受訪(fǎng)者表示,AI 將使剽竊行為變得更容易且更難被發(fā)現。柏林應用科學(xué)大學(xué)剽竊鑒定專(zhuān)家 Debora Weber-Wulff 說(shuō):“每個(gè)人都擔心其他人使用這些系統,他們也擔心自己在應該使用的時(shí)候沒(méi)有使用。關(guān)于這件事,大家都有些慌亂。”
當剽竊遇見(jiàn) AI
根據美國研究誠信辦公室的定義,剽竊是指“未經(jīng)適當引用或致謝,就采用他人的想法、過(guò)程、結果或文字”。2015 年的一項研究估計,1.7% 的科學(xué)家承認有過(guò)剽竊行為,30% 的科學(xué)家知道他們的同事有過(guò)這種行為。
LLM 可能會(huì )使這種情況變得更糟。如果有人先讓 LLM 改寫(xiě)文本,那么故意剽竊人類(lèi)撰寫(xiě)的文本就可以輕易地被掩飾。加拿大不列顛哥倫比亞大學(xué)計算機科學(xué)家和語(yǔ)言學(xué)家 Muhammad Abdul-Mageed 說(shuō),這些工具可以被引導以復雜的方式進(jìn)行改寫(xiě),比如采用學(xué)術(shù)期刊的風(fēng)格。
一個(gè)核心問(wèn)題是,使用完全由機器編寫(xiě)而非人類(lèi)編寫(xiě)的未注明出處的內容是否算作剽竊。許多研究人員說(shuō),不一定算。例如,歐洲學(xué)術(shù)誠信網(wǎng)絡(luò )將使用 AI 工具進(jìn)行寫(xiě)作的未經(jīng)授權或未申報的使用定義為“未經(jīng)授權的內容生成”,而不是剽竊。Weber-Wulff 說(shuō):“對我來(lái)說(shuō),剽竊應該是可以歸因于另一個(gè)可識別的人的東西。”她補充說(shuō),盡管有生成式 AI 產(chǎn)生幾乎與現有的人類(lèi)編寫(xiě)內容相同的文本的情況,但這通常不足以被認為是剽竊。
不過(guò),也有些人認為生成式 AI 工具侵犯了版權。剽竊和侵犯版權都是不當使用他人作品的行為,其中剽竊是違反學(xué)術(shù)倫理的行為,而未經(jīng)授權使用版權作品可能違反法律。密歇根大學(xué)安娜堡分校計算機科學(xué)家 Rada Mihalcea 說(shuō):“這些 AI 系統是基于數百萬(wàn)人甚至數億人的作品構建的。”
一些媒體公司和作者抗議他們視為 AI 侵犯版權的行為。2023 年 12 月,《紐約時(shí)報》對微軟和 OpenAI 提起版權訴訟。該訴訟稱(chēng)這兩家公司復制并使用了數百萬(wàn)篇《紐約時(shí)報》文章來(lái)訓練 LLM,如今這些 LLM 生成的內容正與該出版物的內容“競爭”。訴訟中包括了提示導致 GPT-4 幾乎逐字復制報紙文章的幾個(gè)段落的實(shí)例。
今年 2 月,OpenAI 在聯(lián)邦法院提出動(dòng)議,要求駁回訴訟的部分內容,稱(chēng)“ChatGPT 絕不是《紐約時(shí)報》訂閱的替代品。”微軟的一位發(fā)言人表示,“合法開(kāi)發(fā)的 AI 工具應該被允許負責任的發(fā)展”,“它們也不能替代記者所發(fā)揮的重要內容”。
如果法院裁定未經(jīng)許可在文本上訓練 AI 確實(shí)構成版權侵犯,Bailey 說(shuō),“這對 AI 公司來(lái)說(shuō)將是一個(gè)巨大的沖擊。”沒(méi)有廣泛的訓練集,像 ChatGPT 這樣的工具“就無(wú)法存在”。
AI 正在爆炸式蔓延
無(wú)論這是否被稱(chēng)為剽竊,自 2022 年 11 月 ChatGPT 發(fā)布以來(lái),AI 在學(xué)術(shù)寫(xiě)作中的使用已經(jīng)爆炸性增長(cháng)。
在一篇于 7 月更新的預印本中,研究人員估計,2024 年上半年至少有 10% 的生物醫學(xué)論文摘要使用了 LLM 進(jìn)行撰寫(xiě),相當于每年大約 150000 篇論文。該研究由德國蒂賓根大學(xué)數據科學(xué)家 Dmitry Kobak 領(lǐng)導,分析了 2010 年至 2024 年 6 月之間在學(xué)術(shù)數據庫 PubMed 上發(fā)表的 1400 萬(wàn)篇摘要。他們展示了LLM的出現與風(fēng)格詞匯使用增加有關(guān),例如“delves”、“showcasing”和“underscores”,然后使用這些不尋常的詞匯模式來(lái)估計使用 AI 處理的摘要比例。他們寫(xiě)道:“基于 LLM 的寫(xiě)作助手的出現在科學(xué)文獻中產(chǎn)生了前所未有的影響。”
圖|LLM 的出現與風(fēng)格詞匯使用增加有關(guān)。
Kobak 預測,LLM 的使用“肯定會(huì )繼續增加”,并且將“可能變得更難檢測”。
在學(xué)術(shù)寫(xiě)作中未公開(kāi)使用軟件的情況并不新鮮。自 2015 年以來(lái),法國圖盧茲大學(xué)計算機科學(xué)家 Guillaume Cabanac 和他的同事一直在揭露由名為 SCIgen 的軟件撰寫(xiě)的“胡言亂語(yǔ)”的論文,以及由自動(dòng)翻譯或改寫(xiě)文本的軟件創(chuàng )造的包含“扭曲短語(yǔ)”的論文。Cabanac 說(shuō):“即使在生成式 AI 出現之前,人們就已經(jīng)有了這些工具。”
然而,在學(xué)術(shù)寫(xiě)作中使用 AI 也有一些價(jià)值。研究人員表示,這可以使文本和概念更清晰,減少語(yǔ)言障礙,并為實(shí)驗和思考騰出時(shí)間。利雅得沙特國王大學(xué)信息技術(shù)研究員 Hend Al-Khalifa 表示,在生成式 AI 工具可用之前,許多將英語(yǔ)作為第二語(yǔ)言的同事在撰寫(xiě)論文時(shí)會(huì )感到困難。“現在,他們專(zhuān)注于研究,并使用這些工具消除寫(xiě)作的麻煩,”她說(shuō)。
但對于 AI 的使用何時(shí)構成剽竊或違反倫理,人們仍然感到困惑。馬里蘭大學(xué)學(xué)院公園計算機科學(xué)家 Soheil Feizi 表示,使用 LLM 來(lái)改寫(xiě)現有論文的內容明顯是剽竊。但如果透明地使用 LLM 來(lái)幫助表達想法——無(wú)論是根據詳細提示生成文本,還是編輯草稿——則不應受到懲罰。Feizi 說(shuō):“我們應該允許人們利用 LLM 毫不費力地、清晰地進(jìn)行表達。”
現在許多期刊都有允許一定程度使用 LLM 的政策。在最初禁止由 ChatGPT 生成的文本之后,Science 在 2023 年 11 月更新了他們的政策,表示在撰寫(xiě)手稿時(shí)使用 AI 技術(shù)的行為應完全披露——包括使用的系統和提示。作者有責任確保準確性和“確保沒(méi)有剽竊”。Nature 也表示,研究手稿的作者應在方法部分記錄任何 LLM 的使用。對 100 家大型學(xué)術(shù)出版商和 100 份高排名期刊的分析發(fā)現,截至 2023 年 10 月,24% 的出版商和 87% 的期刊對使用生成式 AI 有指導方針。幾乎所有提供指導的都說(shuō) AI 工具不能被列為作者,但對于允許的 AI 使用類(lèi)型和所需的披露水平,政策各不相同。Weber-Wulff 表示,急需更清晰的關(guān)于學(xué)術(shù)寫(xiě)作中使用 AI 的指導方針。
目前,Abdul-Mageed 表示,撰寫(xiě)科學(xué)論文時(shí)廣泛使用 LLM 的行為因其局限性而受到制約。用戶(hù)需要創(chuàng )建詳細提示,描述受眾、語(yǔ)言風(fēng)格和研究子領(lǐng)域。“實(shí)際上,要讓一個(gè)語(yǔ)言模型給你確切想要的東西是非常困難的,”他說(shuō)。
但 Abdul-Mageed 表示,開(kāi)發(fā)者正在構建應用程序,這將使研究人員更容易生成專(zhuān)業(yè)科學(xué)內容。他說(shuō),未來(lái)用戶(hù)可能只需從下拉菜單中選擇選項,按下一個(gè)按鈕,就能從零開(kāi)始生成整篇論文,而無(wú)需編寫(xiě)詳細提示。
邊界可能會(huì )進(jìn)一步模糊
在快速采用 LLM 編寫(xiě)文本的同時(shí),也出現了大量旨在檢測 LLM 的工具。盡管許多工具宣稱(chēng)準確率很高——在某些情況下超過(guò) 90%——但研究表明,大多數工具并沒(méi)有達到對外宣稱(chēng)的準確率。在去年 12 月發(fā)表的一項研究中,Weber-Wulff 和她的同事評估了在學(xué)術(shù)界廣泛使用的 14 種 AI 檢測工具。其中只有 5 種能夠準確識別 70% 或更多的文本為 AI 或人類(lèi)撰寫(xiě),沒(méi)有一個(gè)得分超過(guò) 80%。
當檢測到有人輕微編輯 AI 生成的文本,通過(guò)替換同義詞和重新排列句子時(shí),檢測器的準確率平均下降到 50% 以下。作者寫(xiě)道,這樣的文本“幾乎無(wú)法被當前工具檢測到”。其他研究也顯示,多次要求 AI 改寫(xiě)文本會(huì )大幅降低檢測器的準確率。
此外,AI 檢測器還存在其他問(wèn)題。一項研究表明,如果英語(yǔ)文章是由非英語(yǔ)為母語(yǔ)的人所寫(xiě),它們更可能錯誤地將這些寫(xiě)作歸類(lèi)為 AI 生成。Feizi 說(shuō),檢測器無(wú)法可靠地區分完全由 AI 撰寫(xiě)的文本和作者使用基于 AI 的服務(wù)來(lái)潤色文本的情況,后者通過(guò)幫助語(yǔ)法和句子清晰度來(lái)改進(jìn)文本。“區分這些情況將非常困難和不可靠——可能導致極高的誤報率,”他說(shuō)。他補充說(shuō),被錯誤地指控使用 AI,可能對那些學(xué)者或學(xué)生的聲譽(yù)造成“相當大的損害”。
合法與非法使用 AI 的邊界可能會(huì )進(jìn)一步模糊。2023 年 3 月,微軟開(kāi)始將其生成式 AI 工具整合到其應用程序中,包括 Word、PowerPoint 和 Outlook。其 AI 助手 Copilot 的一些版本可以起草或編輯內容。6 月,谷歌也開(kāi)始將其生成式 AI 模型 Gemini 整合到 Docs 和 Gmail 等工具中。
“AI 正在變得如此深入地嵌入我們使用的所有東西中,我認為人們將越來(lái)越難以知道你所做的事情是否受到了 AI 的影響,”英國圣馬可和圣約翰大學(xué)高等教育專(zhuān)家 Debby Cotton 說(shuō)。“我認為我們可能無(wú)法跟上它的發(fā)展速度。”
編譯:馬雪薇
原文作者:Diana Kwon,自由科學(xué)記者
021yin.com/articles/d41586-024-02371-z