當(dāng)前,生成式人工智能技術(shù)正引發(fā)生產(chǎn)生活方式的深刻變革。2022年美國發(fā)布的ChatGPT通過數(shù)據(jù)訓(xùn)練實(shí)現(xiàn)類人化內(nèi)容生成,2025年杭州深度求索公司發(fā)布的DeepSeek則憑借算法創(chuàng)新與訓(xùn)練范式突破,構(gòu)建了生成式AI發(fā)展新范式,其與傳統(tǒng)人工智能的核心差異在于不局限于現(xiàn)有數(shù)據(jù),具備自生成模式,可模仿甚至超越人類想象,創(chuàng)造出新的內(nèi)容,且呈現(xiàn)爆發(fā)式增長。新技術(shù)在催生新業(yè)態(tài)的同時,也對人工智能領(lǐng)域的著作權(quán)刑事保護(hù)提出全新挑戰(zhàn),有必要從犯罪風(fēng)險類型、司法實(shí)踐困境和刑事保護(hù)原則等方面進(jìn)行闡釋。
從刑事風(fēng)險維度觀察,其可能涉及的犯罪風(fēng)險主要包括四類:
一是工具型犯罪,即利用生成式人工智能作為行為工具實(shí)施犯罪。此類犯罪的本質(zhì)未因技術(shù)手段更新而改變,責(zé)任主體明確為使用者。如2025年某法院審理的人工智能侵犯著作權(quán)案,被告人通過操控人工智能工具復(fù)制美術(shù)作品并制成拼圖銷售而非法獲利,被法院定罪判刑,體現(xiàn)了“工具屬性不改變犯罪本質(zhì)”的司法邏輯。
二是對象型犯罪,以生成式人工智能技術(shù)本身的權(quán)屬為侵害對象。如某法院審理的人工智能領(lǐng)域侵犯商業(yè)秘密案,行為人違反保密義務(wù)竊取人工智能芯片核心代碼并用于融資,此類行為直接指向技術(shù)成果的權(quán)屬保護(hù),適用傳統(tǒng)商業(yè)秘密犯罪規(guī)制路徑。
三是數(shù)據(jù)型犯罪,存在于生成式人工智能的數(shù)據(jù)采集環(huán)節(jié)。生成式人工智能的研發(fā)以數(shù)據(jù)輸入和訓(xùn)練作為重要條件。模型訓(xùn)練依賴海量數(shù)據(jù)輸入,如果未經(jīng)著作權(quán)人許可,通過網(wǎng)絡(luò)爬蟲等破壞技術(shù)保護(hù)措施的手段獲取受著作權(quán)法保護(hù)的內(nèi)容,或者不當(dāng)收集公民個人信息、商業(yè)秘密等,可能觸犯侵犯著作權(quán)罪、侵犯公民個人信息罪、侵犯商業(yè)秘密罪等罪名,核心爭議在于數(shù)據(jù)獲取的合法性邊界。
四是自主型犯罪風(fēng)險,產(chǎn)生于人工智能內(nèi)容生成的脫離編程控制的自主行為。與傳統(tǒng)人類創(chuàng)作相比,人工智能自主生成物具有顯著特征:創(chuàng)作過程具有自主性,能獨(dú)立完成從構(gòu)思到表達(dá)的全過程;創(chuàng)作結(jié)果具有不確定性,相同輸入可能有不同輸出;創(chuàng)作效率高,短時間內(nèi)能生成大量內(nèi)容;創(chuàng)作內(nèi)容多樣,可模仿多種風(fēng)格和形式。此類犯罪形態(tài)對傳統(tǒng)刑事司法構(gòu)成根本性挑戰(zhàn)。
前三種類型風(fēng)險屬于現(xiàn)在進(jìn)行時,可通過傳統(tǒng)刑法理論解決。第四種自主型犯罪風(fēng)險雖然屬于將來進(jìn)行時,但生成式人工智能的發(fā)展必然極大程度引發(fā)社會生產(chǎn)力的重大變革,進(jìn)而引發(fā)生產(chǎn)關(guān)系的重大改變,將對刑事司法實(shí)踐提出四大挑戰(zhàn):
一是責(zé)任主體認(rèn)定困境。人工智能生成物涉及開發(fā)者、數(shù)據(jù)提供者、使用者、平臺運(yùn)營者等多元主體,傳統(tǒng)“自然人、單位”犯罪主體框架難以覆蓋,責(zé)任歸屬面臨重構(gòu)壓力。
二是對作品的獨(dú)創(chuàng)性與實(shí)質(zhì)性相似認(rèn)定標(biāo)準(zhǔn)是否需要修正。刑法保護(hù)的“獨(dú)創(chuàng)性”需體現(xiàn)人類智力的直接創(chuàng)造性,而對人工智能生成物的“獨(dú)創(chuàng)性”判斷缺乏明確標(biāo)準(zhǔn)。自主生成物和被侵權(quán)作品是否構(gòu)成實(shí)質(zhì)性相似缺乏判定依據(jù),刑事打擊門檻難以把握。
三是侵權(quán)鏈條復(fù)雜化。從數(shù)據(jù)獲取、模型訓(xùn)練到內(nèi)容傳播,環(huán)節(jié)多、技術(shù)性強(qiáng),主觀惡意認(rèn)定難度大,精準(zhǔn)追責(zé)面臨技術(shù)壁壘。
四是刑事政策平衡難題。過度刑事干預(yù)可能抑制技術(shù)創(chuàng)新,縱容侵權(quán)則損害原創(chuàng)權(quán)益,需在“保護(hù)”與“激勵”間找到動態(tài)平衡點(diǎn)。
面對這些全新挑戰(zhàn),法律工作者必須保持高度的法治理性。刑法應(yīng)有所為有所不為。知識產(chǎn)權(quán)本質(zhì)上屬于民事權(quán)利,司法保護(hù)主要依賴民事法律手段。知識產(chǎn)權(quán)的私權(quán)性質(zhì)決定了其刑事保護(hù)較一般刑事案件更具有特殊性,針對上述挑戰(zhàn),知識產(chǎn)權(quán)刑事保護(hù)在查明技術(shù)事實(shí)、與前置法(著作權(quán)法)保持一致前提下,需恪守三項(xiàng)原則:研發(fā)風(fēng)險與承擔(dān)責(zé)任相匹配原則、技術(shù)特征與法律價值相平衡原則、適度介入與必要打擊相兼顧原則。
一是研發(fā)風(fēng)險與承擔(dān)責(zé)任相匹配原則。承認(rèn)技術(shù)中立性與風(fēng)險伴生性,對研發(fā)者基于當(dāng)前技術(shù)水平無法預(yù)見的風(fēng)險后果,不得適用刑事規(guī)制,否則將違背主客觀相統(tǒng)一原則,阻礙技術(shù)進(jìn)步。嚴(yán)格區(qū)分“研發(fā)行為”與“應(yīng)用行為”、“技術(shù)提供”與“工具使用”。區(qū)分人工智能自主生成物是否適用于醫(yī)療診斷、公共安全等特殊領(lǐng)域和非特殊領(lǐng)域。對模型訓(xùn)練中的必要數(shù)據(jù)使用瑕疵,與專門開發(fā)“盜版人工智能”的惡意行為應(yīng)差異化評價。
二是技術(shù)特征與法律價值相平衡原則。從技術(shù)特征看,人工智能價值鏈涵蓋數(shù)據(jù)收集、模型訓(xùn)練、內(nèi)容生成、應(yīng)用部署等復(fù)雜環(huán)節(jié),涉及多元主體,需要關(guān)注傳統(tǒng)法律主體與行為責(zé)任的對應(yīng)關(guān)系。人工智能法律責(zé)任的界定需結(jié)合算法邏輯、數(shù)據(jù)來源、自主學(xué)習(xí)機(jī)制等技術(shù)特征,平衡創(chuàng)新激勵與風(fēng)險防控。
三是適度介入與必要打擊相兼顧原則。刑法介入需保持謙抑性。對保護(hù)對象限定聚焦人類原創(chuàng)智力成果,對人工智能“輸出”內(nèi)容,僅在體現(xiàn)“人類實(shí)質(zhì)性智力投入”且符合獨(dú)創(chuàng)性標(biāo)準(zhǔn)時方可納入保護(hù);對風(fēng)格模仿、思想借鑒類生成物,通過民事途徑調(diào)整。對行為危害性門檻需限定于產(chǎn)業(yè)化、規(guī)?;阂饷黠@的侵權(quán)行為(如人工智能批量生成盜版作品、開發(fā)侵權(quán)專用軟件、平臺明知侵權(quán)仍傳播獲利等),普通侵權(quán)行為排除刑事適用。
生成式人工智能的發(fā)展是時代必然,刑事司法需在堅(jiān)守上述三項(xiàng)原則的基礎(chǔ)上保持開放性。其核心在于,既不縱容以技術(shù)為幌子的惡意侵權(quán)乃至犯罪,也不為創(chuàng)新設(shè)置不必要的刑事障礙。唯有如此,才能實(shí)現(xiàn)著作權(quán)保護(hù)與技術(shù)創(chuàng)新的良性互動,最終守護(hù)原創(chuàng)者的合法權(quán)益與社會創(chuàng)新活力。
(來源:檢察日報(bào),作者單位:上海市人民檢察院第三分院)