近期,隨著ChatGPT的爆火,掀起了新一輪生成式人工智能(AIGC)的熱潮,也引發(fā)了社會(huì)各界對(duì)于該領(lǐng)域規(guī)范發(fā)展與治理問題的廣泛關(guān)注。4月11日,為促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《征求意見稿》)?!墩髑笠庖姼濉访鞔_提出,提供AIGC產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會(huì)公德、公序良俗,并明確了AIGC服務(wù)的提供者需要承擔(dān)的各項(xiàng)義務(wù)和責(zé)任。
(資料圖片)
《征求意見稿》的發(fā)布意味著,我國第一時(shí)間對(duì)AIGC技術(shù)創(chuàng)新應(yīng)用及相關(guān)產(chǎn)品開發(fā)有針對(duì)性地納入法治化治理架構(gòu),樹牢“安全是發(fā)展的前提”這一底線思維,明確為新技術(shù)、新產(chǎn)業(yè)、新業(yè)態(tài)的發(fā)展指明合規(guī)發(fā)展的主線,但與此同時(shí),其中還存在可進(jìn)一步討論之處,如何更好地設(shè)計(jì)規(guī)則,以統(tǒng)籌安全與發(fā)展的關(guān)系尤為重要,在夯實(shí)安全發(fā)展的基礎(chǔ)之上,給予創(chuàng)新發(fā)展以可容、可信、可控的制度環(huán)境,以高質(zhì)量的制度型開放為我國人工智能技術(shù)和產(chǎn)業(yè)的彎道超車,提供科學(xué)有力、堅(jiān)實(shí)堅(jiān)定的制度支撐,釋放創(chuàng)新是發(fā)展第一動(dòng)力的明確信號(hào)?;诖?,就《征求意見稿》相關(guān)條款的理解和建議,敬陳管見。
第一,《征求意見稿》第六條規(guī)定的安全評(píng)估,算法備案和變更、注銷備案手續(xù)等事前審查規(guī)定是有意義且有必要的,但是需要注意事前審查的方式方法,避免不合理地增加企業(yè)的負(fù)擔(dān)。
任何技術(shù)都是一把雙刃劍。AIGC產(chǎn)品作為高度智慧化的人工智能形態(tài),帶給人類社會(huì)的便捷與風(fēng)險(xiǎn)同在,應(yīng)勇敢審慎地應(yīng)對(duì)接受新科技浪潮的洗禮?!墩髑笠庖姼濉吩黾邮虑皩彶?,不僅可以提升利用AIGC產(chǎn)品向公眾提供服務(wù)的合法性,增加其安全、可靠、可解釋、可問責(zé)等可信性,還有助于更好地實(shí)現(xiàn)AI產(chǎn)品和技術(shù)適用的包容性,更好地預(yù)防風(fēng)險(xiǎn),保障安全,及時(shí)發(fā)現(xiàn)其運(yùn)作程序、服務(wù)內(nèi)容所存在的問題,從而提高AIGC產(chǎn)品向公眾提供服務(wù)的可接受性。
建議進(jìn)一步明確事前審查的范圍以及方式方法。由于事前審查會(huì)在一定程度上增加企業(yè)的合規(guī)成本,若事前審查范圍設(shè)置不當(dāng),可能會(huì)抑制AIGC產(chǎn)品的研發(fā)與訓(xùn)練效能,客觀上會(huì)導(dǎo)致AIGC發(fā)展的降速。因此,需注意事前審查的方式方法可能對(duì)企業(yè)經(jīng)營產(chǎn)生的影響,譬如企業(yè)未經(jīng)審查之前,是否能夠發(fā)布相關(guān)產(chǎn)品,若不能,事前審查所需要的時(shí)間是否會(huì)不當(dāng)?shù)刈璧K企業(yè)的正常經(jīng)營行為等。
第二,《征求意見稿》第五條針對(duì)責(zé)任主體方面進(jìn)行了細(xì)化規(guī)定,AIGC產(chǎn)品提供者承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,該規(guī)定是對(duì)人工智能追責(zé)體系的補(bǔ)充和完善,但也需考慮到提供者對(duì)人工智能產(chǎn)品控制力度的有限性,否則可能會(huì)導(dǎo)致提供者責(zé)任的承擔(dān)范圍會(huì)被不合理地放大,建議進(jìn)一步明確提供者的免責(zé)事由。
AIGC產(chǎn)品提供者承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,這里實(shí)際上需要關(guān)注的重點(diǎn)在于對(duì)生成內(nèi)容生產(chǎn)者的認(rèn)定。如果AIGC產(chǎn)品提供者是生成內(nèi)容的生產(chǎn)者,這里的生產(chǎn)者即應(yīng)對(duì)生成內(nèi)容的過程、具體數(shù)據(jù)信息的真實(shí)性、算法使用的適當(dāng)性等整個(gè)生成過程負(fù)責(zé),那么當(dāng)然需要對(duì)其承擔(dān)責(zé)任。該規(guī)定是對(duì)AIGC產(chǎn)品提供者通常是平臺(tái)主體應(yīng)該盡到高度注意義務(wù)的規(guī)定,在一定程度上講,也只有課以AIGC產(chǎn)品提供者相應(yīng)的責(zé)任義務(wù),才能更好對(duì)生成內(nèi)容的合法合規(guī)做出要求。
建議參照“安全港”制度合理設(shè)置平臺(tái)承擔(dān)責(zé)任的范圍,明確提供者免責(zé)事由。如果平臺(tái)盡到相應(yīng)注意義務(wù),在責(zé)任的承擔(dān)上,鑒于其對(duì)創(chuàng)新發(fā)展的貢獻(xiàn),不宜施加其嚴(yán)格責(zé)任,否則不利于技術(shù)的開發(fā)和未來商用。另外,關(guān)于運(yùn)營公司是否需要承擔(dān)相應(yīng)的補(bǔ)充責(zé)任,應(yīng)綜合考慮侵權(quán)范圍、損害程度以及平臺(tái)避免損失擴(kuò)大的能力。
第三,《征求意見稿》第十七條規(guī)定,提供者應(yīng)當(dāng)根據(jù)要求提供可以影響用戶信任、選擇的必要信息。該規(guī)定實(shí)際上是對(duì)AIGC算法的可解釋性提出了新的要求,使隱私權(quán)、個(gè)人信息的保護(hù)不再僅局限于被動(dòng)的事后救濟(jì),保護(hù)鏈條前移,更加積極有效地規(guī)范AI訓(xùn)練過程,有助于增強(qiáng)用戶信任,使AIGC產(chǎn)品更好發(fā)展。
建議進(jìn)一步細(xì)化對(duì)提供者公開信息的范圍和限度。對(duì)可解釋的要求不能過于苛刻或過度放大,應(yīng)當(dāng)進(jìn)一步規(guī)定對(duì)信息公開的程度和限度,避免提出不合理要求使AIGC算法的關(guān)鍵信息被迫公開,導(dǎo)致企業(yè)的技術(shù)機(jī)密泄露,對(duì)企業(yè)創(chuàng)新發(fā)展產(chǎn)生不可挽回的損失。
第四,《征求意見稿》第十五條規(guī)定,對(duì)發(fā)現(xiàn)和被舉報(bào)生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個(gè)月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。該規(guī)定針對(duì)AIGC的關(guān)鍵問題,對(duì)癥下藥,豐富和完善了對(duì)AIGC違規(guī)的處理方式。
建議優(yōu)化完善驗(yàn)證整改優(yōu)化的方式方法。整改優(yōu)化的結(jié)果驗(yàn)證應(yīng)落實(shí)于技術(shù)實(shí)踐,在尊重技術(shù)實(shí)踐及規(guī)律的基礎(chǔ)上,輔之以監(jiān)管保障,鼓勵(lì)和支持平臺(tái)探索創(chuàng)新并優(yōu)化技術(shù)實(shí)現(xiàn)路徑。為此,在設(shè)定技術(shù)運(yùn)用的基本門檻之上,落實(shí)于實(shí)踐試用,加之定期和不定期的監(jiān)測(cè),保證其整改優(yōu)化結(jié)果的安全性與可信度。在優(yōu)化整改后,可通過人工測(cè)試模擬運(yùn)行、“監(jiān)管沙盒”以及設(shè)置監(jiān)管過渡期等方式,檢驗(yàn)整改優(yōu)化后的內(nèi)容生成是否仍存在不符合規(guī)定的生成內(nèi)容。
第五,《征求意見稿》第四條規(guī)定利用生成式AI生成的內(nèi)容應(yīng)該真實(shí)準(zhǔn)確。該規(guī)定主要針對(duì)目前生成式AI無法保證生成信息的真實(shí)性問題,目前生成式AI并不會(huì)對(duì)生成內(nèi)容的正確性進(jìn)行驗(yàn)證,這可能會(huì)導(dǎo)致一些缺乏專業(yè)知識(shí)的人誤將生成內(nèi)容作為正確答案。不過,目前的生成式AI是通過強(qiáng)化學(xué)習(xí)和搜索增強(qiáng)等方式,提升了生成內(nèi)容的邏輯性和可讀性,但并不能像人一樣去辨別內(nèi)容的真實(shí)性。
若將生成式AI生成的內(nèi)容應(yīng)該真實(shí)準(zhǔn)確作為提供者的義務(wù),目前AI難以自行完成,這意味著,國內(nèi)的生成式AI提供者必須通過人工審核的方式達(dá)成義務(wù)。但是,這在很大程度上會(huì)影響生成式AI的運(yùn)行和生成內(nèi)容的效率,極大降低消費(fèi)者用戶的體驗(yàn),而且也會(huì)極大增加企業(yè)的負(fù)擔(dān),花費(fèi)大量的人力和技術(shù)資源用于審核信息。
生成式AI目前仍主要作為人類工作的輔助工具,用戶仍可以通過指令的方式實(shí)現(xiàn)對(duì)生成內(nèi)容的控制,而且在多數(shù)場(chǎng)景中,內(nèi)容生成多為私人使用,生成后并不會(huì)自動(dòng)向公眾公開和傳播,因此,對(duì)于生成式AI的義務(wù)規(guī)定,仍需要區(qū)分使用場(chǎng)景。
從用戶需求和服務(wù)體驗(yàn)來看,用戶對(duì)于此類工具的使用有隱私和保密方面的需求,人工審查的方式也不利于滿足用戶對(duì)于隱私保護(hù)的需求,實(shí)際上也對(duì)生成式AI的功能產(chǎn)生影響。且從事實(shí)層面來看,賦予主體審查義務(wù),必須要考慮該主體對(duì)于審查的可控性和技術(shù)實(shí)現(xiàn)的可能性,而在現(xiàn)實(shí)中,用戶對(duì)生成內(nèi)容有直接控制的能力,提供者能夠通過完善算法的方式提升信息生成的準(zhǔn)確率,但無法100%保證真實(shí)準(zhǔn)確。
建議將該條款調(diào)整為一種鼓勵(lì)式、提倡式的條款,僅對(duì)適用于特殊場(chǎng)景的高風(fēng)險(xiǎn)生成式AI應(yīng)用施加真實(shí)性義務(wù),譬如,有些平臺(tái)將生成式AI內(nèi)置在平臺(tái)之中,此時(shí)生成內(nèi)容會(huì)直接進(jìn)行公開傳播,在這種場(chǎng)景下,存在虛假信息傳播的風(fēng)險(xiǎn),且平臺(tái)擁有對(duì)信息傳播的控制力。2022年9月通過的歐盟《人工智能民事責(zé)任指令》規(guī)定只有高?險(xiǎn)的AI應(yīng)?才承擔(dān)嚴(yán)格的責(zé)任。
總體來講,對(duì)仍存在較大發(fā)展空間且技術(shù)仍待發(fā)展成熟的領(lǐng)域,立法仍需給予一定的包容空間,不宜超出提供者的能力范圍設(shè)置強(qiáng)制性義務(wù)。以國外領(lǐng)先的ChatGPT為例,其目前也暫時(shí)無法確保生成內(nèi)容的真實(shí)性,若將此作為生成式AI提供者的義務(wù),無形之間實(shí)際上提高了進(jìn)入該市場(chǎng)的門檻,不利于我國生成式AI產(chǎn)業(yè)發(fā)展,也會(huì)對(duì)我國獲取該領(lǐng)域的國際競爭新優(yōu)勢(shì)造成阻礙。
(作者系南開大學(xué)法學(xué)院副院長、教授、博導(dǎo),中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員,工信部信息通信科學(xué)技術(shù)委員會(huì)委員)
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) www.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號(hào)-10
聯(lián)系我們: 39 60 29 14 2@qq.com