自去年11月OpenAI公司推出聊天機器人ChatGPT以來,學術(shù)界對這項顛覆性的技術(shù)進行熱烈討論,該技術(shù)也在信息搜索和分析領(lǐng)域展現(xiàn)了巨大的潛力。
信息和分析公司勵訊集團(Relx)2月16日發(fā)布最新財報時表示,該公司正在使用生成式AI增強其法律、醫(yī)療和科學業(yè)務(wù)產(chǎn)品,并預(yù)測2023年的業(yè)績將繼續(xù)實現(xiàn)強勁增長。
勵訊旗下?lián)碛腥蜃畲蟮膶W術(shù)出版商之一愛思唯爾,旗下刊物包括《柳葉刀》(Lancet)、《細胞》(Cell)等知名科學雜志。勵訊集團的其他業(yè)務(wù)還涵蓋法律、風險以及展覽。
(資料圖片僅供參考)
勵訊集團首席財務(wù)官Nick Luff表示,生成式AI給信息分析行業(yè)帶來的機遇大于威脅,集團目前已經(jīng)將生成式AI構(gòu)建到其業(yè)務(wù)產(chǎn)品中。“生成式AI技術(shù)本身非常有趣,但需要確保將它們應(yīng)用于正確的內(nèi)容、正確的用例、正確的工作流程,以獲得專業(yè)用戶的信任。”Luff在財報發(fā)布時指出。
數(shù)字化轉(zhuǎn)型是勵訊集團近年來的戰(zhàn)略重點,這一需求在傳統(tǒng)出版行業(yè)面臨數(shù)字化挑戰(zhàn)的背景下顯得尤為突出。2月17日,愛思唯爾董事長池永碩在一篇署名文章中指出,愛思唯爾已經(jīng)開發(fā)了數(shù)字化解決方案,用于支持臨床決策的深度數(shù)據(jù)和信息分析,并產(chǎn)生可信賴的醫(yī)學知識信息。
不過,隨著科研人員邁入高級對話AI的新世界,出版機構(gòu)也正在討論如何認可生成式AI的合法使用,并為防止濫用制定清晰準則。
全球知名出版集團施普林格-自然(Springer Nature)的旗艦刊物《自然》日前公開發(fā)表社論,聲明了在使用生成式AI時的兩條原則:一是不接受任何LLM工具作為對研究論文有貢獻的作者;二是使用LLM工具的研究人員應(yīng)在方法或致謝部分中聲明。
“這并不是禁止ChatGPT作為撰寫論文的工具,但根本問題是對于一篇論文是如何組成的,以及使用什么軟件撰寫的,要有明確的規(guī)定。”一位出版界相關(guān)人士對第一財經(jīng)記者表示,“科學需要透明度,這是核心與本質(zhì)。包括研究人員、出版商需要走到一起,制定新的披露規(guī)范,以防止技術(shù)被濫用。”
全球頂尖科學期刊《科學》雜志主編Holden Thorp也公開撰文稱,在不到兩個月的時間里,生成式AI軟件ChatGPT已經(jīng)成為一種“文化轟動”。“這在文學創(chuàng)作中可能會變得很有趣,但對科學界和學術(shù)界可能會造成嚴重的影響。”Thorp寫道。
編輯和出版商是否已經(jīng)可以檢測出由大模型生成的論文文本?根據(jù)《自然》的說法,ChatGPT的原始輸出經(jīng)過仔細檢查是可以檢測到的,尤其是當涉及多個段落并且主題與科學工作相關(guān)時。
根據(jù)Thorp援引最近的一項研究,由ChatGPT創(chuàng)建的摘要在提交給學術(shù)審稿人時,只有63%的文章被檢測到使用了AI軟件。《科學》雜志制定準則稱,人工智能程序不能成為作者,違反這些政策將構(gòu)成科學不端行為,與篡改圖像或抄襲現(xiàn)有論文沒有差異。但針對通過人工智能技術(shù)在研究中生成的合法的數(shù)據(jù)集(非論文文本)除外。
“科學論文歸根結(jié)底是人類為解決重要問題所做的努力。 機器發(fā)揮著重要作用,但它是人們提出假設(shè)、設(shè)計實驗和理解結(jié)果的工具。 最終,這些產(chǎn)品必須來自人類頭腦中美妙的計算機來表達。”Thorp表示。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) www.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com