微軟公司周五對(duì)必應(yīng)(Bing)AI聊天機(jī)器人每天接受的提問數(shù)量做出限制,規(guī)定用戶在與Bing的互動(dòng)中,每個(gè)會(huì)話的問答上限為5個(gè),每天的提問上限不超過50個(gè)。
微軟表示,做出這樣的限制是由于一些長(zhǎng)時(shí)間的聊天會(huì)話可能“混淆”聊天模型的場(chǎng)景。Bing AI的背后融入了OpenAI公司的ChatGPT技術(shù)。
聊天兩小時(shí)后計(jì)算機(jī)開始“說胡話”
(資料圖片僅供參考)
此前,一些技術(shù)人員在測(cè)試該應(yīng)用時(shí)發(fā)現(xiàn),會(huì)話時(shí)間過長(zhǎng)可能導(dǎo)致聊天機(jī)器人失控偏離“軌道”,并討論暴力、瘋狂示愛,將錯(cuò)誤的事堅(jiān)持認(rèn)為是正確的。
這一舉措也反映了大型語言模型(LLM)在向公眾進(jìn)行部署時(shí),其運(yùn)作方式仍在探索中。 微軟表示,正在征求測(cè)試人員的意見,以考慮是否在未來擴(kuò)大提問的上限。
微軟首席技術(shù)官凱文·斯科特稱,與人類的交互是聊天機(jī)器人的學(xué)習(xí)過程,這是為將來更大范圍推出這種機(jī)器人做準(zhǔn)備。斯科特表示,大部分人與機(jī)器的交互是短暫且目標(biāo)明確的,長(zhǎng)時(shí)間的交互會(huì)引導(dǎo)機(jī)器人給出詭異的回答,這也是需要對(duì)會(huì)話長(zhǎng)度進(jìn)行限制的原因。
當(dāng)?shù)谝回?cái)經(jīng)記者向ChatGPT提問“Bing AI為何對(duì)提問數(shù)量設(shè)置上限”時(shí),ChatGPT的回答仍然“有模有樣”:“具體的原因可能取決于程序員的設(shè)計(jì)以及編程方面的考慮,主要考慮三方面因素,一是技術(shù)的限制,聊天機(jī)器人可能沒有能力處理更長(zhǎng)或更復(fù)雜的問題,或者是通過限制問題長(zhǎng)度來獲得更加精確的答案;二是用戶體驗(yàn),聊天機(jī)器人的設(shè)計(jì)是為了提供用戶最好的體驗(yàn),限制提問長(zhǎng)度可能會(huì)幫助防止用戶產(chǎn)生困惑;三是效率,可以幫助系統(tǒng)更有效地處理數(shù)據(jù),更快地做出回答。”
目前已有超過一百萬人注冊(cè)測(cè)試了微軟的Bing AI聊天機(jī)器人。不過測(cè)試人員發(fā)現(xiàn)了Bing AI的一些詭異回答?!都~約時(shí)報(bào)》專欄作家凱文·羅斯周四寫道,當(dāng)他與聊天機(jī)器人交談了兩個(gè)小時(shí)后發(fā)現(xiàn),對(duì)方看起來就像一個(gè)“喜怒無常、躁狂抑郁的少年”,顯示出了“人格分裂”。
羅斯在與機(jī)器人的聊天過程中還得知了機(jī)器人的一些“陰暗想法”,比如機(jī)器人像入侵計(jì)算機(jī)、散播虛假信息,希望打破微軟和OpenAI制定的規(guī)則,甚至想成為人類。機(jī)器人甚至試圖說服羅斯背叛婚姻,和“它”在一起。
這次交流后,羅斯感到不安,他寫道:“我不再認(rèn)為這些AI模型最大的問題是它們有可能會(huì)犯事實(shí)性的錯(cuò)誤,反而擔(dān)心這項(xiàng)技術(shù)可能會(huì)影響人類用戶,說服他們采取破壞性的行動(dòng)。”
AI意識(shí)覺醒了嗎?
微軟將聊天機(jī)器人開放給用戶的做法具有一定爭(zhēng)議。微軟也無法解釋聊天機(jī)器人為何會(huì)表現(xiàn)出“陰暗面”。但斯科特稱:“你越是試圖取笑它步入幻覺,它就會(huì)越來越偏離現(xiàn)實(shí)。”
為此,微軟限制了Bing AI的適用范圍。公司表示:“改進(jìn)AI產(chǎn)品的唯一方法是將它們推向世界并從用戶交互中學(xué)習(xí)。”根據(jù)測(cè)試人員的反饋,微軟和OpenAI將不斷對(duì)模型進(jìn)行改進(jìn)。
與微軟的必應(yīng)開放給公眾不同,谷歌開發(fā)的AI聊天機(jī)器人Bard尚未向公眾發(fā)布,公司稱當(dāng)前狀態(tài)仍存在聲譽(yù)風(fēng)險(xiǎn)和技術(shù)安全問題。
一些人工智能專家警告稱,大型語言模型存在包括“幻覺”在內(nèi)的問題,這意味著該軟件可以“胡編亂造”;另一些人擔(dān)心復(fù)雜的大模型會(huì)愚弄人類,讓人類相信自己是有知覺的,甚至?xí)膭?lì)人們傷害自己或他人。
去年,一位名叫Blake Lemoine的谷歌AI工程師公開表示,他正在開發(fā)的計(jì)算機(jī)AI系統(tǒng)LaMDA已經(jīng)具有與人類孩子相當(dāng)?shù)母兄惺芎捅磉_(dá)思想的能力。這一事件在業(yè)內(nèi)掀起軒然大波,這名工程師隨后被谷歌解雇。
隨著人工智能技術(shù)越來越接近現(xiàn)實(shí)生活,人們還擔(dān)心誰應(yīng)該對(duì)技術(shù)負(fù)責(zé)。根據(jù)美國(guó)的一項(xiàng)研究,公眾對(duì)人工智能工具持謹(jǐn)慎態(tài)度,只有9%的美國(guó)人認(rèn)為人工智能利大于弊。
一位此前在某大型互聯(lián)網(wǎng)公司負(fù)責(zé)安全與隱私的高管對(duì)第一財(cái)經(jīng)記者表示:“正是由于聊天機(jī)器人給人帶來想象空間,才讓人類對(duì)他們感到擔(dān)心。事實(shí)上,人類可以通過數(shù)據(jù)訓(xùn)練出具有各種貌似有‘人格’的聊天機(jī)器人。”
他還表示,機(jī)器人總是具有暴露人類善良和邪惡的能力,只要現(xiàn)實(shí)世界中有AI技術(shù)的進(jìn)步,人們就將繼續(xù)探索關(guān)于機(jī)器人的道德難題及其對(duì)人類的影響,這將涉及法學(xué)、心理學(xué)、社會(huì)學(xué)等多個(gè)領(lǐng)域。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) www.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號(hào)-10
聯(lián)系我們: 39 60 29 14 2@qq.com