近期,ChatGPT爆火掀起了新一輪生成式人工智能(AIGC)熱潮,也引發(fā)了社會各界對于該領(lǐng)域規(guī)范發(fā)展與治理問題的廣泛關(guān)注。4月11日,為促進生成式人工智能技術(shù)健康發(fā)展和規(guī)范應用,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》(下稱《管理辦法》)?!豆芾磙k法》明確提出,提供生成式人工智能產(chǎn)品或服務應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗,并明確了生成式人工智能服務的提供者需要承擔的各項義務和責任。
(相關(guān)資料圖)
一旦《管理辦法》正式通過并生效,則預示著可信AIGC發(fā)展邁向新的臺階。目前,ChatGPT等AIGC技術(shù)仍是一把雙刃劍,其作為高度智慧化的人工智能(AI)形態(tài),帶給人類社會的便捷與風險同在,而這些潛在風險,可能引發(fā)民眾對于AI技術(shù)應用的信任危機。ChatGPT等AI技術(shù)應用在給人們帶來便捷的同時,也存在泄露個人隱私的風險,并且可能成為“學術(shù)造假”、制造虛假信息和謠言的工具,引發(fā)人們對AIGC乃至整個AI產(chǎn)業(yè)的信任危機,而對AI的信任危機將不利于AI的進一步創(chuàng)新和發(fā)展。為此,有必要基于可能引發(fā)AIGC信任危機的問題所在,探索可信AIGC發(fā)展的治理基點。
AIGC引發(fā)信任危機的原因
在AI技術(shù)發(fā)展早期,人們對其產(chǎn)生信任危機主要緣于技術(shù)不成熟,譬如自動駕駛技術(shù)存在發(fā)生事故的可能,使用者的人身安全難以得到有效保障,由此會產(chǎn)生一種不信任。隨著ChatGPT等的出現(xiàn),AI技術(shù)發(fā)展進入一個全新階段,人們發(fā)現(xiàn)AI技術(shù)具有無限可能性,可以完成一些人們從未想象過的任務,但這仍然可能引發(fā)人們對于AI技術(shù)的不信任。這種不信任,一方面緣于AI技術(shù)確實尚未成熟,另一方面則緣于AI技術(shù)生成的內(nèi)容難辨真假,且在無形中會采集我們提供的大量數(shù)據(jù)。以ChatGPT為代表的AIGC技術(shù)為例,就可能引發(fā)下述問題:
其一,科技倫理問題。科技倫理是開展科學研究、技術(shù)開發(fā)等科技活動需要遵循的價值理念和行為規(guī)范,是促進科技事業(yè)健康發(fā)展的重要保障。ChatGPT等AIGC技術(shù)的發(fā)展使得AI應用擴展到了新聞、畫圖、寫作等領(lǐng)域,但這些領(lǐng)域尚未建立技術(shù)使用的行為規(guī)范,易導致在技術(shù)使用過程中出現(xiàn)違反倫理道德的行為。
以ChatGPT為例,它可以幫助用戶完成新聞報道、寫論文等多種任務,但也因此可能成為一些人用來制造謠言和偽造論文的工具。全球?qū)W術(shù)頂刊《自然》雜志(Nature)一周之內(nèi)兩次發(fā)布有關(guān)ChatGPT的分析文章,探討諸如ChatGPT等大型語言模型(LLMs)給學術(shù)圈帶來的潛在混亂、生成內(nèi)容存在的潛在侵權(quán),以及如何規(guī)范使用等問題。
在此背景下,若不明確對AI技術(shù)在各領(lǐng)域應用需要遵循的價值理念和行為規(guī)范,那么學術(shù)規(guī)范問題、虛假信息和謠言傳播等科技倫理問題將會引發(fā)人們對于AI的不信任,這種不信任甚至可能會擴大到未使用AI技術(shù)的情形中,譬如對于一篇學術(shù)論文或者畫作,人們都可能懷疑其是不是由AI創(chuàng)作出來的。如此一來,由此引發(fā)的信任危機將對相關(guān)領(lǐng)域整體發(fā)展產(chǎn)生不可預估的影響。
其二,侵權(quán)責任問題。由于AIGC領(lǐng)域相關(guān)法律、倫理道德規(guī)范尚未健全,AIGC技術(shù)的濫用引發(fā)了諸多侵權(quán)事件發(fā)生。據(jù)媒體報道,澳大利亞墨爾本西部赫本郡的市長布賴恩·胡德(BrianHood)指控OpenAI旗下ChatGPT對其進行誹謗,或?qū)υ摴咎崞鹪V訟。
而且,由于ChatGPT等AIGC技術(shù)的使用門檻較低,在一定程度上也提升了發(fā)生侵權(quán)事故的風險。以傳播謠言為例,在當前追求流量的互聯(lián)網(wǎng)環(huán)境下,可能會促使一些用戶為博眼球制造虛假信息,增加虛假信息傳播的頻率。
隨之而來的是AI侵權(quán)責任的承擔問題,即遭到AIGC技術(shù)參與的侵權(quán)行為,應當找誰承擔責任?是用戶還是提供AIGC產(chǎn)品服務的運營商?目前,傳統(tǒng)法律法規(guī)中的主體資格、責任追究等制度適用于AIGC應用場景面臨困境,若不能有效且合理地認定各方的侵權(quán)責任,同樣會引發(fā)人們對于AIGC技術(shù)的不信任,因為責任追究機制不明確可能導致行為人與運營商之間相互推諉責任,從而導致被侵權(quán)人的損失難以及時彌補。
其三,數(shù)據(jù)安全問題。AI技術(shù)的運行需要大量數(shù)據(jù)支持,主要使用的是公共爬蟲數(shù)據(jù)集和有著超過萬億單詞的人類語言數(shù)據(jù)集。OpenAI官網(wǎng)發(fā)布的《隱私政策》顯示,用戶在使用ChatGPT時,會被采集有關(guān)用戶訪問、使用或互動的信息。相關(guān)負責人也表示,ChatGPT會使用每個客戶的一小部分數(shù)據(jù)樣本來提高模型性能,用戶若不希望數(shù)據(jù)用于提高性能,需要通過郵件向OpenAI發(fā)送申請。這意味著,包含用戶隱私以及用戶對話的數(shù)據(jù)可能會被OpenAI采集并存儲在其數(shù)據(jù)中心,隨著ChatGPT用戶數(shù)量暴增,其采集和存儲的用戶數(shù)據(jù)量也將非常龐大。
雖然近年來數(shù)據(jù)安全保護技術(shù)愈加成熟,且提供AIGC服務的運營商也會承諾保障數(shù)據(jù)安全,但數(shù)據(jù)泄露隱憂始終存在。3月25日,OpenAI表示有1.2%的ChatGPTPlus用戶數(shù)據(jù)可能被泄露,一些用戶可能看到其他人聊天記錄的片段,以及其他用戶信用卡的最后四位數(shù)字、到期日期、姓名、電子郵件地址和付款地址等信息??梢姡瑪?shù)據(jù)安全問題仍然難以避免,若數(shù)據(jù)安全得不到有效保障,AI技術(shù)就難以獲信,進而阻礙AI的發(fā)展和應用。
推進可信AI發(fā)展的治理基點
當前,騰訊、百度等國內(nèi)科技巨頭紛紛表示將研發(fā)類ChatGPT的AIGC技術(shù)產(chǎn)品,在此背景下,必須正視可能引發(fā)AIGC信任危機的主要問題。應當以三方面作為治理基點,加快推進可信AIGC發(fā)展。
第一,加快建立多領(lǐng)域的科技倫理監(jiān)管和規(guī)范,加強科技倫理審查。當前,我國AIGC相關(guān)領(lǐng)域的科技倫理治理存在體制機制不健全、制度不完善、領(lǐng)域發(fā)展不均衡等問題,難以適應AIGC領(lǐng)域科技創(chuàng)新發(fā)展的現(xiàn)實需要。
為此,一方面,需要針對不同的AIGC應用領(lǐng)域制定相應的科技倫理規(guī)范和標準,明確科技倫理要求,引導相關(guān)企業(yè)合規(guī)開展科技活動。
同時,加強對AIGC產(chǎn)品的事前審查。《管理辦法》規(guī)定,在利用生成式人工智能產(chǎn)品向公眾提供服務前,應當向國家網(wǎng)信部門申報安全評估,并履行算法備案和變更、注銷備案手續(xù)。通過事前審查的方式,不僅可以提升生成式人工智能產(chǎn)品向公眾提供服務的合法性,增加其安全、可靠、可解釋、可問責等可信性,還有助于更好地實現(xiàn)AIGC產(chǎn)品和技術(shù)適用的包容性,更好地預防風險,保障安全。事前審查還能夠彌補外部監(jiān)督的缺陷,提前鑒別某個行為是否違法,對其實施監(jiān)控更加有利和有力。此外,進行事前審查,可及時發(fā)現(xiàn)運作程序、服務內(nèi)容存在的問題,提高生成式人工智能產(chǎn)品向公眾提供服務的可接受性。但同時,也可能由于事前審查效率及審查范圍設置不當,抑制AIGC產(chǎn)品的研發(fā)與訓練效能,客觀上導致AIGC發(fā)展降速。
另一方面,要加快建立科技倫理審查和監(jiān)管制度。4月4日,科技部發(fā)布關(guān)于公開征求對《科技倫理審查辦法(試行)》意見的公告,其中提出科技倫理審查應堅持科學、獨立、公正、透明原則,公開審查制度和審查程序,客觀審慎評估科技活動倫理風險,依規(guī)開展審查,并自覺接受有關(guān)方面的監(jiān)督。通過科技倫理審查等外部監(jiān)管方式,能在一定程度上提升AI領(lǐng)域技術(shù)使用的規(guī)范性,建立人工智能領(lǐng)域道德層面的行為準則,對維護社會公平正義、保障公眾切身利益具有重要意義,也有助于提升人們對人工智能技術(shù)應用的信任。
第二,要完善AIGC侵權(quán)責任認定規(guī)則。AI自動化運行造成了“主體—行為—責任”傳統(tǒng)理論下的“責任鴻溝”,但AI算法技術(shù)的應用如算法的設計與部署是包含價值觀和主觀意圖的,這是法律追責之根本指向,也是承擔法律責任的主要依據(jù),因此,可將AI算法設計部署的主觀過錯作為追責的基礎(chǔ)依據(jù)。在此基礎(chǔ)上,還需進一步提升《民法典》《刑法》《產(chǎn)品質(zhì)量法》等傳統(tǒng)法律在AIGC具體應用場景中判定主體責任和產(chǎn)品質(zhì)量缺陷等問題的適用性。
在責任判定過程中,需要根據(jù)行為人以及提供AIGC服務的運營商對于侵權(quán)行為和損害后果發(fā)生的實質(zhì)作用進行判定?!豆芾磙k法》第五條規(guī)定,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務的組織和個人(下稱“提供者”),需要承擔產(chǎn)品生成內(nèi)容生產(chǎn)者的責任。這意味著在責任判定過程中,若損害發(fā)生,可以參照適用《民法典》中規(guī)定的產(chǎn)品生產(chǎn)者責任,即因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應當承擔侵權(quán)責任,并且被侵權(quán)人可以向產(chǎn)品的提供者請求賠償。這是對AIGC產(chǎn)品提供者通常是平臺主體應該盡到高度注意義務的規(guī)定,在一定程度上講,也只有賦予AIGC產(chǎn)品提供者相應的責任義務,才能更好對生成內(nèi)容的合法合規(guī)做出要求。當然,如果平臺盡到相應義務,在責任的承擔上,鑒于其對創(chuàng)新發(fā)展的貢獻,不宜施加嚴格責任,否則不利于技術(shù)開發(fā)和未來商用。
第三,要加強AI領(lǐng)域的數(shù)據(jù)保障。在制度層面,需要結(jié)合AIGC底層技術(shù)所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護制度,譬如可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權(quán)利屬性等方面對數(shù)據(jù)進行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權(quán)利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進行分級。
在數(shù)據(jù)分類分級的基礎(chǔ)上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護標準與共享機制。AIGC還涉及數(shù)據(jù)跨境流通問題,應當在考慮國際通行標準和做法的基礎(chǔ)上,制定合理的跨境數(shù)據(jù)安全執(zhí)法規(guī)則,加強與其他國家和地區(qū)規(guī)則的銜接,促進數(shù)據(jù)安全跨境執(zhí)法合作。
此外,還需進一步加強數(shù)據(jù)安全的事前保護,將保護鏈條前移。《管理辦法》規(guī)定,提供者應當根據(jù)國家網(wǎng)信部門和有關(guān)主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優(yōu)化訓練數(shù)據(jù)的來源、規(guī)模、類型、質(zhì)量等描述,人工標注規(guī)則,人工標注數(shù)據(jù)的規(guī)模和類型,基礎(chǔ)算法和技術(shù)體系等。通過事前保護的方式,能夠更加積極有效地規(guī)范AI訓練過程,以更好保障用戶的知情權(quán)、選擇權(quán)等權(quán)益,增強用戶信任度。
AIGC產(chǎn)業(yè)具有巨大的發(fā)展前景,能夠帶來更多數(shù)字化創(chuàng)新的發(fā)展機遇,也已成為未來全球競爭與創(chuàng)新的重點方向,但AIGC產(chǎn)業(yè)發(fā)展面臨的信任危機也值得重視。我國需進一步推進可信AIGC產(chǎn)業(yè)的發(fā)展建設,重視AIGC產(chǎn)業(yè)的科技倫理治理,建立健全相關(guān)行為規(guī)范和倫理指南,用系統(tǒng)觀念和法治思維及辦法來推動AIGC產(chǎn)業(yè)的規(guī)范健康持續(xù)發(fā)展,提升其安全、可靠、可解釋、可問責等可信性。
(陳兵系南開大學法學院副院長、教授,南開大學競爭法研究中心主任,南開大學數(shù)字經(jīng)濟交叉科學中心研究員;林思宇系南開大學競爭法研究中心博士研究生)
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務| 友情鏈接
咕嚕網(wǎng) www.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com