自O(shè)penAI去年11月發(fā)布基于GPT-3.5版本的ChatGPT以來,就引起了業(yè)內(nèi)的轟動,目前訪問量已經(jīng)超過10億次。近日,OpenAI公司CEO奧特曼表示,未來還將發(fā)布一系列工具,幫助企業(yè)及個人用戶更好地控制生成人工智能系統(tǒng)。他預(yù)計包括AI醫(yī)生和AI律師在內(nèi)的應(yīng)用程序很快就會出現(xiàn)在人們的手機上。
(資料圖)
在文心一言發(fā)布會上,百度董事長CEO李彥宏也表示,未來大模型將不僅僅影響搜索行業(yè)。他援引機構(gòu)數(shù)據(jù)稱,到2030年,人工智能將會讓腦力勞動者的生產(chǎn)效率提升4倍。
目前,越來越多的咨詢機構(gòu)和會計事務(wù)所已經(jīng)開始將AI融入他們的工作中。例如貝恩公司上個月就宣布與OpenAI展開合作,幫助像可口可樂這樣的公司創(chuàng)建個性化的廣告文案、圖像和信息。
普華永道3月15日表示,它與人工智能初創(chuàng)公司Harvey合作簽訂了一份為期一年的初步合同,將為4000名法律專業(yè)人士提供人工智能平臺訪問權(quán)限?;贠penAI的技術(shù),Harvey可以幫助律師進行合同分析、監(jiān)管合規(guī)工作、盡職調(diào)查以及其他法律和其他稅務(wù)等方面的咨詢服務(wù)。
其他與Harvey開展合作的還有全球律師事務(wù)所安理國際(Allen & Overy)。 這家總部位于倫敦的大型律所表示,將支持3500多名律師使用基于AI的服務(wù),輔助法律文件的起草和研究。
人才技術(shù)公司翰德(Hudson)大中華區(qū)CEO于志偉對第一財經(jīng)記者表示:“AI已經(jīng)在一些行業(yè)開始嶄露頭角,比如法律咨詢等,但目前來看,它們所取代的仍然是初級職位,例如文獻(xiàn)歸類,還很難預(yù)測會對勞動力市場帶來哪些實質(zhì)性的顛覆。”
于志偉告訴記者,在幫助企業(yè)物色特定崗位人選時,翰德也已經(jīng)開始使用類似ChatGPT的人工智能軟件,提升應(yīng)聘的效率。“我們預(yù)測GPT更新并開放API之后,未來能力會更強,并且一定會在很多領(lǐng)域出現(xiàn)更多成功的應(yīng)用,比如會對人才的招聘技術(shù)方面產(chǎn)生新的迭代。”
貝恩公司資深合伙人David Zehner也對記者表示:“類似ChatGPT這樣的應(yīng)用對于我們領(lǐng)域未來工作的改變主要有三方面場景,首先是客服,能夠更有針對性地滿足客戶的需求;其次是營銷,可以自動生成營銷文案和信息,并這個基礎(chǔ)上做更多消費者測試,看看哪些溝通內(nèi)容在消費者溝通當(dāng)中效果最好;最后可以做知識管理,幫助企業(yè)管理內(nèi)部知識和文檔。”
不過Zehner也表示,任何技術(shù)要實際應(yīng)用到整個經(jīng)濟活動生產(chǎn)當(dāng)中并顯現(xiàn)出效應(yīng),不是短短幾年就能實現(xiàn)的。“如果談到技術(shù)的突破對于個別職業(yè)上的影響,我們認(rèn)為主要還是看生產(chǎn)效率提升是否會帶動商業(yè)需求的提升。”他對第一財經(jīng)記者表示,“如果我們把人工智能應(yīng)用到醫(yī)療上,可以提升醫(yī)療服務(wù)、降低醫(yī)療成本,那么相應(yīng)地,就會促使更多醫(yī)務(wù)人員去使用這樣的AI系統(tǒng)。”
Zehner認(rèn)為,人工智能對于很多白領(lǐng)的工作未來會產(chǎn)生深遠(yuǎn)影響。“無論是媒體還是咨詢行業(yè),人工智能的應(yīng)用一定會在未來十年內(nèi)顛覆并改變我們的工作方式。”他說道。
在GPT-4發(fā)布時,奧特曼表示,GPT-4是其模型當(dāng)中“最有能力且最符合”人類價值觀和意圖的模型,盡管“它仍然存在缺陷”。“它比以前的模型更有創(chuàng)意,它的幻覺明顯減少,而且它的偏見也更少。”奧特曼表示。
減少AI聊天機器人情緒反應(yīng)過激、犯事實錯誤是眾多技術(shù)人員努力的重要方向。研究機構(gòu)Gartner高級研究總監(jiān)方琦對第一財經(jīng)記者表示:“ChatGPT這樣的模型在很多方面非常強,一般來說客戶會關(guān)注AI三個領(lǐng)域的能力,一個是相關(guān)性,就是你問它上一句,它是不是能夠回答下一句;第二個是準(zhǔn)確性,這類模型算法雖然已經(jīng)優(yōu)化,但是在很多情況下還是會犯事實上的錯誤;第三個是數(shù)據(jù)訓(xùn)練、數(shù)據(jù)集當(dāng)中可能會帶來很多的風(fēng)險。”
方琦認(rèn)為,在應(yīng)用這樣一些大規(guī)模“黑盒模型”的時候,倫理問題也不可忽視。“對于風(fēng)險比較高的場景,現(xiàn)在ChatGPT類似的技術(shù)還是需要和一些規(guī)則相結(jié)合才能夠去真正地落地應(yīng)用。”他對第一財經(jīng)記者表示。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) www.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com