AI是如何改變學(xué)術(shù)出版格局的?
由于其強大的文本、信息處理能力與易用性,從 2022 年 11 月 30 日 OpenAI 發(fā)布 ChatGPT3.5 開(kāi)始,就有越來(lái)越多的人嘗試將這類(lèi)大語(yǔ)言模型運用到學(xué)術(shù)寫(xiě)作當中。
圖丨在視頻網(wǎng)站搜索相關(guān)內容,可以看到 ChatGPT3.5 發(fā)布不久后就有許多用它來(lái)輔助學(xué)術(shù)寫(xiě)作的教程、用例等
但除了興奮,人們也感到擔憂(yōu)。
在現行的學(xué)術(shù)出版體系中,從原始數據采集到論文發(fā)表的整個(gè)鏈條,理論上都存在人工智能介入的可能。
一方面,人們普遍期待它能有效簡(jiǎn)化日常工作的處理流程;另一方面,又擔憂(yōu)其可能帶來(lái)的濫用問(wèn)題。
美國語(yǔ)言學(xué)家、著(zhù)名知識分子諾姆·喬姆斯基就曾表示,ChatGPT “不過(guò)是高科技抄襲”,會(huì )對學(xué)術(shù)與高等教育產(chǎn)生破壞。
圖丨相關(guān)文章(來(lái)源:My Modern Met)
而許多學(xué)術(shù)出版商等,在當時(shí)更是對這些技術(shù)充滿(mǎn)疑慮。
一些出版商在當時(shí)選擇對在學(xué)術(shù)寫(xiě)作中使用 AI 實(shí)施限制措施,而像 Science 等知名期刊,則采取了更為強硬的態(tài)度,直接明令禁止在任何情況下使用此類(lèi)工具。
Science 的主編赫伯特·霍爾登·索普 (Herbert Holden Thorp)評價(jià)道:“科學(xué)記錄最終是人類(lèi)為解決重要問(wèn)題而做出的努力之一。機器發(fā)揮著(zhù)重要作用,但它只是人們提出假設、設計實(shí)驗和理解結果的工具。最終,產(chǎn)品必須來(lái)自我們頭腦中那臺神奇的計算機,并由它來(lái)表達?!?/p>
圖丨相關(guān)文章(來(lái)源:Sceince)
或許是技術(shù)的發(fā)展速度過(guò)快,這些出版商們還來(lái)不及評估其利弊,并確立最佳實(shí)踐,所以在當時(shí),它們只得以采取這種相對嚴苛的手段來(lái)避免可能的弊端。
而十多個(gè)月后的今天,學(xué)術(shù)期刊們似乎已經(jīng)逐漸轉變了對于生成式 AI 的態(tài)度,轉而開(kāi)始更為主動(dòng)的迎接它們,允許研究者們在“方法”部分中明確標注的前提下,使用生成式人工智能和大語(yǔ)言模型輔助論文文本與圖像的生成。
同時(shí)也積極地刊載利用 AI 輔助學(xué)術(shù)寫(xiě)作的相關(guān)內容,甚至 Springer Nature 等出版商還推出了屬于自己的 AI 寫(xiě)作助手。
而這種轉變所反映的,正是 ChatGPT 們對整個(gè)學(xué)術(shù)出版界帶來(lái)的變革。
AI 的使用勢不可擋
盡管一開(kāi)始期刊們對于生成式 AI 的使用都有所限制,但技術(shù)的普及還是難以被阻擋。
畢竟,用 AI 輔助寫(xiě)作,確實(shí)是太方便了。
斯坦福大學(xué)團隊的報告就指出,在 ChatGPT 發(fā)布后的短短五個(gè)月內,LLMs 已迅速成為許多學(xué)者修改和完善論文的重要工具,尤其是在計算機科學(xué)領(lǐng)域,大約 17% 的摘要,15.3% 的引言使用了大模型參與寫(xiě)作。
圖丨不同領(lǐng)域的學(xué)術(shù)寫(xiě)作中經(jīng)由 LLMs 修改的句子的估算比例(來(lái)源:arXiv)
除了寫(xiě)作外,同行評審、編輯審稿等也是 AI 應用的重點(diǎn)環(huán)節。
雖然在評審時(shí)使用它們會(huì )有隱私泄露的風(fēng)險、其評審意見(jiàn)也不一定完全可靠,甚至可能改變錄用結果等,但由于越來(lái)越大的審稿壓力和 AI 帶來(lái)的便利性,在同行評審中使用 AI 也已經(jīng)越來(lái)越普遍。
例如,相關(guān)研究就表明,ICLR2024、NeurIPS 等 AI 頂會(huì )的同行評審就有 16.9% 是由 AI 生成的。
圖丨ICLR 2024 同行評審中大概率由人工智能生成的詞匯的出現頻率變化(來(lái)源:arXiv)
更重要的是,我們其實(shí)也很難做到完全禁止 AI 在學(xué)術(shù)寫(xiě)作中的應用。
雖然有一些出版商們推出了專(zhuān)門(mén)的 AI 寫(xiě)作檢測工具,但它們其實(shí)也并不可靠。
早前的一項研究就探討了運用人工智能技術(shù)撰寫(xiě)高度逼真的偽科學(xué)論文的可行性。
研究團隊選取神經(jīng)外科作為主題,借助 ChatGPT 在短短一小時(shí)內起草了一篇文章。
然后他們采用了一款名為 Content at Scale 的專(zhuān)業(yè)鑒別軟件對偽造論文進(jìn)行檢測。這款軟件自詡能夠以高達 98% 的精確度辨識出由人類(lèi)撰寫(xiě)與 AI 生成的文本差異。
然而,當它面對這篇偽論文時(shí),給出的判斷結果令人咋舌——僅有 48% 的可能性認定文章出自 AI 之手,遠遠低于有效鑒別的標準,而這篇文章,甚至只是在短短 1 小時(shí)內寫(xiě)出來(lái)的。
圖丨相關(guān)論文(來(lái)源:National Library of Medicine)
用另一款來(lái)自 Open AI 的 AI Text Classifier 的工具在評估該文是否由 AI 創(chuàng )作時(shí),也得出了“不確定”的結論。
甚至即便是人類(lèi)專(zhuān)家,也無(wú)法完全做到鑒別 AI 寫(xiě)作。另一項西北大學(xué)的研究就發(fā)現,面對人類(lèi)和 AI 撰寫(xiě)的文章摘要,人類(lèi)專(zhuān)家的識別率只能達到 68%,比起檢測工具 66% 的識別率,也并沒(méi)有好多少。
圖丨相關(guān)論文(來(lái)源:arXiv)
所以,現實(shí)情況表明,完全限制 AI 工具的使用幾乎是不可能的任務(wù)。
出版商們的應對政策
當出版商們意識到,自己沒(méi)有足夠的人力或時(shí)間來(lái)監管 AI 時(shí),他們很快就改變了立場(chǎng)。
包括 Science 等期刊都轉而允許在學(xué)術(shù)寫(xiě)作中使用人工智能,但大多數都要求在使用時(shí)進(jìn)行聲明,并堅決反對使用人工智能來(lái)生成或改變研究圖像。
例如 The Journal of the American Medical Association 就要求,研究者在投稿時(shí)必須詳細披露所有使用過(guò)的人工智能軟件平臺、程序或工具的具體信息,包括但不限于名稱(chēng)、版本號、制造商以及使用日期等。
圖丨JAMA的相關(guān)規定(來(lái)源:The Journal of the American Medical Association)
Springer Nature 則為同行評審專(zhuān)家設定了特定的指導原則,特別強調在未確保 AI 工具安全性之前,不得將論文草稿上傳至任何 AI 生成工具中進(jìn)行加工。
同時(shí),一些期刊對于 AI 的使用方式也有所限制,例如 Elsevier 允許作者在撰寫(xiě)過(guò)程中利用 AI 技術(shù)和輔助工具,但僅限于提升文稿的可讀性和語(yǔ)言表達。
但在之后, Elsevier 旗下期刊發(fā)表的文章就被發(fā)現使用了 AI 生成文章摘要。
圖丨被曝使用了 AI 生成文章摘要的論文(來(lái)源:Surfaces and Interfaces)
這不禁讓人們懷疑,這些指導政策是否明確、是否得到執行并且是否有效?
此前發(fā)表在 BMJ 的一項研究,就對全球排名前 100 位的學(xué)術(shù)出版商及科學(xué)期刊進(jìn)行了調查,重點(diǎn)分析了它們對作者使用生成式 AI 的指導原則。
圖丨相關(guān)論文(來(lái)源:The British Medical Journal)
研究團隊發(fā)現,僅有 24% 的出版商提供了相關(guān)指導,而在這其中,排在前 25 名的頂級出版商比例更是低至 15%。
而且即使是那些提供了一定指導的頂級出版商,其指導內容也存在明顯的“不足”之處,亟需進(jìn)一步完善和細化。
而這種不足,帶來(lái)的后果就是,虛假論文、論文工廠(chǎng)等學(xué)術(shù)不端行為隨著(zhù) AI 技術(shù)的發(fā)展更加泛濫。
前不久美國著(zhù)名學(xué)術(shù)出版公司 Wiley ??煜碌?19 種科學(xué)期刊,其部分原因就是 AI 所導致的虛假研究泛濫。
所以,學(xué)術(shù)界迫切需要一套強有力的指導原則,以引導學(xué)者們正確理解和應用AI技術(shù)于學(xué)術(shù)寫(xiě)作之中。
有學(xué)者就認為,這不僅是對新興科技的規范,更可能促使學(xué)界正視并解決長(cháng)期以來(lái)存在的深層次問(wèn)題?!霸谖铱磥?lái),人工智能所做的,不過(guò)是將學(xué)術(shù)體系中早已存在的裂痕——那種碎片化、過(guò)于功利化的現狀——暴露無(wú)遺?!彼缡钦f(shuō)。
“現在到了臨界點(diǎn),我們需要解決‘不發(fā)表就淘汰’文化的根本問(wèn)題,這種文化已經(jīng)侵蝕了學(xué)術(shù)界的基礎。人們很容易將問(wèn)題歸咎于人工智能,但事實(shí)上,人工智能只是放大鏡,顯示了事情已經(jīng)變得多么糟糕”。
除此之外,科學(xué)出版界的商業(yè)模式也往往與遏制偽造及學(xué)術(shù)不端行為的目標存在內在沖突。為了確保盈利并維持對股東的責任,許多學(xué)術(shù)出版商傾向于優(yōu)先考慮論文的數量而非質(zhì)量。
這是因為他們的主要收入來(lái)源是所謂的論文處理費(Article Processing Charges, APC),即作者或其資助機構在論文發(fā)表時(shí)需支付的費用。這種模式下,發(fā)表的論文數量越多,出版商所能收取的 APC 也就越多,從而形成了一種可能促使質(zhì)量控制放寬的經(jīng)濟激勵機制。
這種模式顯然也需要進(jìn)行改革,例如探索新的資金支持途徑等。
總之,整個(gè)學(xué)術(shù)界都已經(jīng)在被 AI 改變了,除了那些“規定”和“指導”,我們還需要更加積極的去迎接這些改變。
參考資料:
021yin.com/journals/lancet/article/PIIS0140-6736(24)00416-1/fulltext#back-bib8
021yin.com/drug-discovery/articles/ai-in-science-publication-the-good-the-bad-and-the-questionable-385650
[3].
本文內容不代表平臺立場(chǎng),不構成任何投資意見(jiàn)和建議,以個(gè)人官網(wǎng)/官方/公司公告為準。