劃重點
01《Nature》雜志發(fā)表文章,探討AI工具如何改變科學(xué)家的研究方式,提高研究效率。
02目前,受歡迎的AI科學(xué)檢索工具包括Elicit、Consensus和You,它們?yōu)檠芯咳藛T提供高效完成文獻(xiàn)綜述的方式。
03除此之外,其他AI檢索工具如BioloGPT和Clarivate的AI檢索工具也在探索利用AI技術(shù)提升科研效率的更多應(yīng)用場景。
04然而,AI檢索工具的錯誤引用文獻(xiàn)、編造統(tǒng)計數(shù)據(jù)等問題引發(fā)科學(xué)家擔(dān)憂,部分科學(xué)家因此停用這些工具。
05開發(fā)者正努力提高AI檢索工具的準(zhǔn)確性,如Elicit公司采用多個安全系統(tǒng)檢查AI回答中的錯誤。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
智東西(公眾號:zhidxcom)
編譯 | 徐豫
編輯 | 心緣
智東西10月12日消息,全球頂尖科學(xué)學(xué)術(shù)期刊《Nature》于10月10日發(fā)表了一篇科學(xué)家利用人工智能(AI)工具做科學(xué)研究的行業(yè)觀察,發(fā)現(xiàn)AI工具正在改變傳統(tǒng)的科研工作方式。目前,許多AI工具可以幫研究人員在大量文獻(xiàn)中篩選出所需資料,從而使科學(xué)研究更加高效。
這些用于科學(xué)研究檢索的AI工具基于大語言模型(LLM),其不僅可以搜集、篩選現(xiàn)有研究文獻(xiàn),還可以總結(jié)、列舉文中的關(guān)鍵發(fā)現(xiàn)。背后的AI公司不斷提升這些模型的性能,并定期推出新的AI工具。
《Nature》雜志采訪了多位AI科學(xué)檢索工具的開發(fā)者和使用者后,匯集了他們的實際上手體驗,以及使用這些AI工具的潛在風(fēng)險。
文章地址:https://doi.org/10.1038/d41586-024-02942-0
一、科學(xué)家用AI工具了解科研方向、收集科研資料、撰寫文獻(xiàn)綜述
據(jù)《Nature》統(tǒng)計,市面上最受歡迎的AI科學(xué)檢索工具包括Elicit、Consensus和You,它們?yōu)檠芯咳藛T提供了多種高效完成文獻(xiàn)綜述的方式。
1、美國AI論文生成公司Elicit:自動化完成文獻(xiàn)綜述
當(dāng)研究人員在Elicit中輸入一個研究問題后,該AI工具會列出相關(guān)論文,并總結(jié)這些論文的主要發(fā)現(xiàn)。
在此基礎(chǔ)上,研究人員還可以針對某一篇論文繼續(xù)提問,以及指定留下某一本期刊或某一種研究類型的內(nèi)容。
2、美國AI學(xué)術(shù)搜索引擎公司Consensus:可視化科研行業(yè)共識
公司同名AI工具Consensus可以幫研究人員搜集、整理科學(xué)界對某個科學(xué)課題有哪些說法和爭議。
舉個例子,當(dāng)研究人員輸入“氯胺酮可以治療抑郁癥嗎”這個問題后,該AI工具會生成一個“Consensus meter(共識度量器)”,其會總結(jié)支持、反對或不確定該假設(shè)的論點和論據(jù),以顯示科學(xué)界對上述問題的共識程度。
▲Consensus meter(共識度量器)可以更直觀地展示科研行業(yè)共識(圖源:《Nature》)
Consensus的首席執(zhí)行官Eric Olson(埃里克奧爾森)稱,其AI工具雖然不能替代研究人員去深入分析論文內(nèi)容,但可以有效幫助他們速覽研究動態(tài)并歸納主流研究方向。
3、美國AI學(xué)術(shù)搜索引擎公司You:個性化科研研究
You方面自稱其同名AI工具“You”,是第一個結(jié)合了文獻(xiàn)最新引用數(shù)據(jù)的AI檢索工具。該AI工具為研究人員提供了探索研究問題的多種模式,例如其“genius mode(天才模式)”會以圖表的形式反饋檢索結(jié)果。
上個月,You還推出了一款允許多人協(xié)作的AI工具。研發(fā)人員可以合作定制、共享個性化的AI聊天框,令其自動執(zhí)行諸如事實核查之類的特定任務(wù)。
二、AI科研檢索工具支持多語種,有望打破學(xué)術(shù)交流語言壁壘
除了熱門的Elicit、Consensus和You外,其他AI檢索工具也在探索利用AI技術(shù)提升科研效率的更多應(yīng)用場景。
美國AI生物學(xué)知識問答平臺BioloGPT能夠針對生物學(xué)問題,生成總結(jié)性的、更有深度的回答,是大量垂直于單一學(xué)科的AI工具之一。
今年9月,英國一站式科研服務(wù)公司Clarivate推出了一個AI檢索工具,研究人員可以用其快速調(diào)用Web of Science數(shù)據(jù)庫中的內(nèi)容。Clarivate方面稱,基于該AI檢索工具,研究人員輸入一個研究問題后,可以以圖譜的形式查看相關(guān)的論文摘要、科研主題和引用文獻(xiàn),并且能看到每一篇參考文獻(xiàn)的標(biāo)注,從而更高效地找出關(guān)鍵論文及其論點。
此外,即便Web of Science中收錄的是英文論文,Clarivate的AI檢索工具也可以用英語外的其他語言總結(jié)論文中的關(guān)鍵信息。在Clarivate產(chǎn)品副總裁Francesca Buckland(弗朗西斯卡巴克蘭德)看來,將多語言的翻譯能力融入AI檢索工具背后的大模型中,是一件“非常具有潛力”的事情,它可以減少全球科研資源不平等的情況。
▲研究人員可以用Clarivate的AI工具,梳理Web of Science數(shù)據(jù)庫中的內(nèi)容(圖源:《Nature》)
三、建議利用AI檢索工具各自的優(yōu)勢查資料,但要記得核查
當(dāng)被《Nature》問及“最好用的AI檢索工具是什么”時,加拿大流行病學(xué)家Razia Aliani(拉齊婭阿利亞尼)說:“我認(rèn)為這通常取決于實際研究目的。”目前她在澳大利亞一家非營利性的文獻(xiàn)綜述公司工作,公司名為Covidence。
如果需要了解某個科研主題的不同觀點和共識,Aliani會傾向于使用Consensus。但要審核大型數(shù)據(jù)庫時,她會選擇用其他AI檢索工具,比如Elicit。
在Elicit上拋出初始研究方向后,Aliani會根據(jù)該AI工具的檢索結(jié)果,排除與研究方向無關(guān)的論文,然后深入剩余的關(guān)聯(lián)性更強(qiáng)的文獻(xiàn),以微調(diào)初始研究方向。
她認(rèn)為,AI科研檢索工具不僅節(jié)省了時間,還能提高科研工作質(zhì)量、激發(fā)創(chuàng)造力并減輕科研壓力。
Anna Mills(安娜米爾斯)在美國加利福尼亞州的馬林學(xué)院教授基礎(chǔ)寫作課程,平常也會涉及有關(guān)如何開展研究過程的課程。她雖然很想向?qū)W生推薦這些AI檢索工具,但同時也擔(dān)心這些工具會妨礙學(xué)生深入理解一些學(xué)術(shù)研究。
相較于用AI檢索工具獲取科研信息,她更希望教會學(xué)生如何辨別AI檢索結(jié)果中的錯誤,從而培養(yǎng)他們辯證使用AI工具的能力。
美國AI生物學(xué)知識問答平臺BioloGPT的創(chuàng)始人Conner Lambden(康納蘭登)也認(rèn)為:“學(xué)會對一切事物保持懷疑態(tài)度,包括你自己在用的研究方法,是成為一名優(yōu)秀的科學(xué)家的必經(jīng)之路。”
四、AI錯誤引用文獻(xiàn),有科學(xué)家因此停用,開發(fā)者正補(bǔ)救
AI大模型在檢索過程中時不時出現(xiàn)“幻覺”,已是一個老生常談的問題。在AI界,“”幻覺(Hallucination)”是指AI模型編造、引用、輸出一些具有誤導(dǎo)性的、虛假的、無中生有的信息。
而對于ChatGPT等主流AI聊天機(jī)器人回答準(zhǔn)確性的擔(dān)憂,也蔓延到了AI科學(xué)檢索工具上。多位研究人員提醒應(yīng)謹(jǐn)慎使用這些AI科學(xué)檢索工具。
用AI檢索工具做科研時,常見的錯誤有編造統(tǒng)計數(shù)據(jù)、誤解引用的論文、AI大模型的偏見。
體育科學(xué)家Alec Thomas(亞歷克托馬斯)目前在瑞士的洛桑大學(xué)做研究,他曾一度“非常欣賞AI檢索工具”。
然而,在親自試用一些AI檢索工具后,他的態(tài)度卻發(fā)生了180度大轉(zhuǎn)彎。Thomas決定放棄使用這些AI檢索工具,原因是他發(fā)現(xiàn)AI生成的答案中有“非常嚴(yán)重的基礎(chǔ)性錯誤”。例如,他用AI檢索工具研究“參與體育活動對患有飲食失調(diào)的人的影響”時,AI引用了一篇與研究問題毫無關(guān)系的論文來生成研究結(jié)論。
Thomas直言:“我們不會相信一個公認(rèn)可能隨時會出現(xiàn)幻覺的人類,那又憑什么去相信有類似癥狀的AI呢?”
據(jù)多位接受《Nature》采訪的AI檢索工具開發(fā)者透露,他們已經(jīng)采取了安全措施,以提高AI檢索的準(zhǔn)確性。
美國AI論文生成公司Elicit的項目開發(fā)負(fù)責(zé)人James Brady(詹姆斯布拉迪)稱,該公司十分重視AI檢索工具的準(zhǔn)確性問題,正在使用多個安全系統(tǒng)檢查AI回答中的錯誤。
英國一站式科研服務(wù)公司Clarivate產(chǎn)品副總裁Buckland則稱,Web of Science的AI工具有“可靠的保護(hù)機(jī)制”,以規(guī)避AI生成帶有欺騙性的、不準(zhǔn)確的內(nèi)容。在測試期間,她的研發(fā)團(tuán)隊曾與大約1.5萬名研究人員共同整合反饋,以調(diào)試AI檢索的準(zhǔn)確性。
盡管經(jīng)過開發(fā)者的不斷糾偏,AI檢索工具的使用體驗有所改善,美國AI學(xué)術(shù)搜索引擎公司Consensus的CEO Olson卻認(rèn)為,這非但不能根治AI的“幻覺”,還可能會加重“病情”。
Olson解釋道,通過人為反饋調(diào)試的AI檢索工具,傾向于得出對人類有益的答案,并且會因此自主填補(bǔ)一些不存在的事實。
結(jié)語:未來的AI工具需要比拼專業(yè)度
從《Nature》的調(diào)查中,我們可以看到AI檢索的應(yīng)用場景,已經(jīng)逐漸向細(xì)分領(lǐng)域滲透。
這也意味著,類似于AI科研檢索領(lǐng)域,未來AI大模型及其產(chǎn)品對專業(yè)性、準(zhǔn)確性有著更嚴(yán)格的要求。
目前來看,面向?qū)I(yè)領(lǐng)域微調(diào)后的AI模型,出現(xiàn)“幻覺”的概率和頻率會有所降低,而其存在的偏見問題則不能光靠技術(shù)更新來解決。
李飛飛于2015年聯(lián)合創(chuàng)建了AI4All項目,旨在吸納更多諸如女性、有色人種、工薪階層的AI人才,以減輕開發(fā)AI大模型過程中存在的偏見。
Andrew Hoblitzell(安德魯霍布里策爾)是印度的一名生成式AI研究人員,他已在多所大學(xué)開設(shè)了圍繞AI4All項目的講座。
在他看來,AI檢索工具可以在一定程度上為科研過程提供支持,但前提是科學(xué)家要親自驗證過AI生成的信息。
Hoblitzell稱:“現(xiàn)階段,這些AI檢索工具應(yīng)該是科研的輔助工具,而不是最終的成果來源。”
來源:《Nature》