Som Biswas博士,來自美國田納西大學(xué)健康科學(xué)中心的放射科,以其在短時間內(nèi)高產(chǎn)出論文而引起關(guān)注。
在2022年11月,Biswas博士首次通過媒體了解到ChatGPT。他將這一人工智能工具的潛能與自己的研究專長結(jié)合起來,從而開啟了一段新的旅程。他思考到,如果ChatGPT能夠撰寫故事和笑話,那么它同樣有能力協(xié)助進(jìn)行科研或撰寫嚴(yán)肅的學(xué)術(shù)文章。這種創(chuàng)新的思維方式展示了將傳統(tǒng)科研方法與前沿技術(shù)結(jié)合的可能性。
Biswas 博士在提交論文時,始終坦誠地聲明這些文章是完全或部分由 ChatGPT 編寫的。他還會特別標(biāo)注哪些觀點(diǎn)和討論是出自他本人,即「人類作者」之手。這種做法獲得了期刊審稿人的認(rèn)可,他們指出許多作者即使使用了人工智能輔助也不會公開承認(rèn),而Biswas的坦誠應(yīng)該得到認(rèn)可。
隨著時間的推移,Biswas開始將研究領(lǐng)域擴(kuò)展到放射科之外。他承認(rèn)自己利用ChatGPT撰寫了涉及軍事、教育、農(nóng)業(yè)、社交媒體、保險、法律和微生物學(xué)等多個領(lǐng)域的論文。他在這些不同領(lǐng)域的一些文章也得到了發(fā)表,包括一篇關(guān)于計算機(jī)編程的論文,以及兩封關(guān)于全球變暖和公共衛(wèi)生的致編輯信。這些成果展示了他在利用AI技術(shù)方面的廣泛興趣和能力。
頂刊解除禁令,但「硬傷」無法忽視
然而這種高效率帶來的一個主要擔(dān)憂是ChatGPT可能會產(chǎn)生虛構(gòu)內(nèi)容和參考文獻(xiàn)。
盡管存在這些問題,學(xué)界對ChatGPT的態(tài)度正在逐漸放寬。
《Science》系列期刊對于AI工具在學(xué)術(shù)出版中的應(yīng)用持續(xù)調(diào)整其政策。在2023年1月,該系列期刊的編輯政策中明確規(guī)定了不允許論文包含任何AI工具生成的文本、數(shù)字和圖像,同時AI程序也不能被列為論文作者。這一規(guī)定將使用AI生成內(nèi)容的行為與學(xué)術(shù)不端行為,如篡改圖像和剽竊等同視之。
然而,到了同年11月16日,《Science》系列期刊發(fā)布了新的編輯政策:只要在論文的“方法”部分適當(dāng)披露,就允許使用生成式人工智能(AI)和大語言模型來創(chuàng)造論文中的圖像和文本。這一政策變化反映了學(xué)術(shù)界對AI技術(shù)的逐漸接納和適應(yīng),同時也表明了對于確保透明度和誠信度的重視。
ChatGPT在學(xué)術(shù)領(lǐng)域的應(yīng)用不僅限于撰寫論文。
Biswas博士在2023年9月在《Yale Journal of Biology and Medicine》上發(fā)表了一篇研究,探討了使用ChatGPT進(jìn)行同行評審的可行性。
這項(xiàng)研究對比了ChatGPT生成的評論和人工評論,發(fā)現(xiàn)ChatGPT在提高審稿效率和保持審稿標(biāo)準(zhǔn)一致性方面具有優(yōu)勢。但同時,研究也指出ChatGPT可能難以深入理解高度專業(yè)化的主題,不具備評估復(fù)雜研究結(jié)果的科學(xué)有效性或準(zhǔn)確性的專業(yè)知識,目前也無法對圖像數(shù)據(jù)進(jìn)行審查。
此外,預(yù)印本平臺bioRxiv在2023年11月8日宣布了一個試點(diǎn)項(xiàng)目,使用名為大語言模型(LLMs)的文本生成神經(jīng)網(wǎng)絡(luò)為網(wǎng)站上所有新預(yù)印本提供概述,并針對不同閱讀水平的用戶創(chuàng)建了三個簡短的摘要。bioRxiv的聯(lián)合創(chuàng)始人表示,如果這個試點(diǎn)項(xiàng)目成為成熟的服務(wù),他們可能會考慮讓作者定期參與內(nèi)容的校對和批準(zhǔn)。
但是,為了盡量減少錯誤帶來的后果,這個項(xiàng)目目前還沒有推廣到medRxiv。這些發(fā)展表明,AI技術(shù)在學(xué)術(shù)領(lǐng)域的應(yīng)用正逐步擴(kuò)大,同時也在不斷探索和解決相關(guān)的挑戰(zhàn)。