- +1
法治的細(xì)節(jié)︱機(jī)器學(xué)習(xí)侵犯版權(quán)嗎?
背景
人工智能技術(shù)的應(yīng)用是大勢所趨,人工智能產(chǎn)業(yè)將成為大國科技競爭的重點(diǎn)領(lǐng)域。人工智能技術(shù)的核心在于機(jī)器學(xué)習(xí),訓(xùn)練人工智能掌握近似人類的學(xué)習(xí)能力。通過這樣的訓(xùn)練,人工智能可以掌握圖片修改、視頻制作、文字寫作等能力。
當(dāng)然,要訓(xùn)練人工智能掌握這樣的學(xué)習(xí)能力,必須對其“投喂”大量作品,通過作品的“投喂”使人工智能掌握生成新內(nèi)容的算法。這會導(dǎo)致人工智能技術(shù)開發(fā)者與被“投喂”作品的權(quán)利人之間的沖突。
如2023年上半年美國藝術(shù)家薩拉·安德森等起訴Stability AI等人工智能公司案,下半年美國喜劇演員薩拉·西爾弗曼等起訴Meta公司和OpenAI公司案,就是這種沖突在現(xiàn)實(shí)中的反映。最近,隨著《紐約時報》與OpenAI的談判陷入僵局,《紐約時報》也對OpenAI提起了類似訴訟,可見在立法和司法上解決類似沖突的必要性。
一、人工智能輸出內(nèi)容與“投喂”的作品大概率不相似
在上訴案件中,無論是美國藝術(shù)家薩拉·安德森等起訴Stability AI等人工智能公司案,還是薩拉·西爾弗曼等起訴Meta公司和OpenAI公司案,作品權(quán)利人的大部分訴請均被法院駁回,唯一保留的是美國藝術(shù)家薩拉·安德森指控Stability AI侵害復(fù)制權(quán)的訴請。這是因?yàn)?,在以上案件中,原告無法證明其作品與被告運(yùn)營的人工智能生成物構(gòu)成實(shí)質(zhì)性相似,這就無法證明被告侵害了原告的版權(quán)。
這反映了人工智能生成內(nèi)容的特點(diǎn),訓(xùn)練人工智能時輸入的作品與訓(xùn)練完成后人工智能輸出的結(jié)果之間并無必然相似的關(guān)系。這也充分說明了,人工智能生成內(nèi)容與訓(xùn)練人工智能輸入的作品之間并無直接競爭。
當(dāng)然,最近的紐約時報訴OpenAI案表明,紐約時報主張OpenAI生成內(nèi)容與《紐約時報》的文字作品雷同。如果紐約時報的主張屬實(shí),就說明人工智能技術(shù)遠(yuǎn)不如公眾想象的成熟,人工智能算法有受到現(xiàn)實(shí)法律規(guī)則和社會倫理約束的必要性。
二、日本外的多數(shù)國家未就人工智能訓(xùn)練使用他人作品的行為定性表態(tài)
盡管訓(xùn)練人工智能時輸入的作品與訓(xùn)練完成后人工智能輸出的結(jié)果之間并不必然相似,但訓(xùn)練人工智能時會不可避免地利用權(quán)利人的作品。
在美國藝術(shù)家薩拉·安德森等訴Stability AI人工智能公司等案中,如果Stability AI公司最終被法院認(rèn)定復(fù)制了原告的作品,除非Stability AI的行為符合著作權(quán)限制制度,否則無法免于承擔(dān)法律責(zé)任。
各國著作權(quán)法普遍存在著作權(quán)限制制度,該項(xiàng)制度的核心是對著作權(quán)人的權(quán)利作出限制,豁免特定情況下的侵權(quán)法律責(zé)任。該類制度的作用是為了平衡個人權(quán)利與公共利益之間的沖突。例如學(xué)生群體為了個人學(xué)習(xí)的目的少量復(fù)制公共圖書館的圖書,再如游客在公共場所拍照時不可避免地復(fù)制雕塑、建筑等作品。
人工智能技術(shù)開發(fā)者訓(xùn)練人工智能的過程中會不可避免地復(fù)制權(quán)利人作品,除非該種復(fù)制行為構(gòu)成“合理使用”,否則人工智能技術(shù)的開發(fā)者難以擺脫法律責(zé)任。
就是否對訓(xùn)練人工智能過程中復(fù)制權(quán)利人作品的行為適用“合理使用”制度,大多數(shù)國家尚未在立法和司法層面作出回應(yīng)。例如歐洲國家的著作權(quán)法明確規(guī)定了著作權(quán)限制制度的適用情形,但目前未有國家明確規(guī)定訓(xùn)練人工智能過程中復(fù)制權(quán)利人作品的行為適用著作權(quán)限制制度。
美國版權(quán)法的權(quán)利限制制度被稱為“合理使用”,不同于適用情形特定的歐洲國家的著作權(quán)限制制度,這種合理使用制度僅規(guī)定了若干判定合理使用的要素。實(shí)踐中,美國法院需要結(jié)合該若干要素和在先判例判決特定行為是否構(gòu)成合理使用。正如上文所言,盡管美國有多起作品權(quán)利人與AI公司之間的訴訟,但美國法院尚未就訓(xùn)練人工智能過程中復(fù)制權(quán)利人作品的行為是否構(gòu)成合理使用表態(tài)。
不同于歐美,日本政府明確表態(tài),日本著作權(quán)法既有的“文本與數(shù)據(jù)挖掘”限制制度可以適用于人工智能訓(xùn)練時使用他人作品的行為。盡管政府的主張尚未得到法院判決的確認(rèn),但日本政府的態(tài)度表明其謀求人工智能產(chǎn)業(yè)發(fā)展的迫切性。在發(fā)達(dá)國家中,日本人工智能產(chǎn)業(yè)發(fā)展的優(yōu)勢并不明顯,因此急切需要法律為人工智能產(chǎn)業(yè)松綁,從而實(shí)現(xiàn)人工智能產(chǎn)業(yè)發(fā)展的彎道超車。
日本、美國和歐盟普遍認(rèn)可“數(shù)據(jù)挖掘(使用計(jì)算機(jī)分析海量數(shù)據(jù)獲取有價值信息)”限制規(guī)則,“數(shù)據(jù)挖掘”限制制度與人工智能并無必然關(guān)聯(lián),但日本巧妙地將“數(shù)據(jù)挖掘”限制制度擴(kuò)張到人工智能場合,解決了人工智能訓(xùn)練使用他人作品行為的定性問題。
日本政府的政策表明國家利益對著作權(quán)限制制度的影響,更充分說明了人工智能相關(guān)制度具備很強(qiáng)的國家政策性。
三、我國應(yīng)當(dāng)為人工智能訓(xùn)練使用他人作品行為構(gòu)建合理使用制度
在我國,已有企業(yè)開展了人工智能技術(shù)的研發(fā)和應(yīng)用,同樣存在利用權(quán)利人作品訓(xùn)練人工智能的情形,其中的版權(quán)糾紛不可避免。目前已經(jīng)有權(quán)利人對企業(yè)使用其作品訓(xùn)練人工智能的行為提起民事訴訟。因此,在我國為訓(xùn)練人工智能使用他人作品的行為是否構(gòu)成合理使用,成為亟待解決的問題。
我國《著作權(quán)法》規(guī)定了“12+1”種“合理使用”情形,其中“12”是特定的“合理使用”情形,“1”是“法律、行政法規(guī)規(guī)定的其他情形”,即兜底條款。目前法定的“12+1”種“合理使用”情形并不包含為訓(xùn)練人工智能使用他人作品的行為,《著作權(quán)法實(shí)施條例》和《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例》尚未修訂,目前也未將為訓(xùn)練人工智能使用他人作品的行為定性為合理使用。
盡管立法未有明確規(guī)定,但理論上將為訓(xùn)練人工智能使用他人作品的行為定性為合理使用仍有一定的空間。
根據(jù)我國《著作權(quán)法》,“合理使用”行為必須符合“三步檢驗(yàn)法”,即“特殊情況下使用作品”,“不得影響該作品的正常使用”,“也不得不合理地?fù)p害著作權(quán)人的合法權(quán)益”。其中的“特殊情況”即《著作權(quán)法》法定的12種合理使用情形,當(dāng)然司法解釋也有擴(kuò)張合理使用情形的先例?!安坏糜绊懺撟髌返恼J褂谩币笫褂谜卟坏门c作品權(quán)利人開展直接的市場競爭,不允許使用者的創(chuàng)作直接替代權(quán)利人的作品?!安坏貌缓侠淼?fù)p害著作權(quán)人的合法權(quán)益”是指,“合理使用”的行為是對著作權(quán)人利益的損害,盡管這種損害的發(fā)生不可避免,但使用者應(yīng)將這種損害限定在最小限度。
正如上文所言,人工智能訓(xùn)練時輸入的作品與其輸出結(jié)果之間并無必然相似的關(guān)系,人工智能的輸出結(jié)果取決于其算法,其輸出結(jié)果具有不特定性。大部分情況下,人工智能訓(xùn)練時輸入的作品與其輸出的結(jié)果是不構(gòu)成實(shí)質(zhì)性相似的。這意味著人工智能的輸出結(jié)果不會與權(quán)利人的作品直接展開市場競爭,不會影響權(quán)利人作品的市場。
也就是說,盡管利用權(quán)利人作品訓(xùn)練人工智能的行為不在法定的特殊情形之內(nèi),但該種行為實(shí)質(zhì)上符合合理使用的“三步檢驗(yàn)標(biāo)準(zhǔn)”。
當(dāng)然,為訓(xùn)練人工智能使用他人作品的行為,不可避免會導(dǎo)致權(quán)利人的損失。對此,有研究建議對訓(xùn)練人工智能使用他人作品的合理使用情形進(jìn)行限縮。如有美國學(xué)者認(rèn)為應(yīng)保障教學(xué)和科研實(shí)體的權(quán)利,建議只有為了非商業(yè)、教學(xué)和科研目的利用權(quán)利人作品訓(xùn)練人工智能的行為才可以構(gòu)成合理使用。
這種折中方案,避免了將任何利用權(quán)利人作品訓(xùn)練人工智能的行為認(rèn)定為合理使用,給作品權(quán)利人造成的損失,在一定程度上維護(hù)了權(quán)利人的利益。但人工智能產(chǎn)業(yè)的發(fā)展需要大算力和尖端硬件的支持,教學(xué)、科研機(jī)構(gòu)并無法承擔(dān)其中的成本。因此,僅允許教學(xué)科研機(jī)構(gòu)訓(xùn)練人工智能目的使用他人作品,并無法實(shí)現(xiàn)人工智能的發(fā)展。
當(dāng)然,從維護(hù)權(quán)利人利益的角度,可以對訓(xùn)練人工智能利用他人作品的行為采法定許可制度,即人工智能的運(yùn)營者可以未經(jīng)許可利用權(quán)利人作品訓(xùn)練人工智能,但應(yīng)當(dāng)向權(quán)利人支付費(fèi)用。相比“合理使用”制度,法定許可制度照顧了權(quán)利人的利益,更為合理。
但人工智能技術(shù)存在“技術(shù)黑箱”,人工智能訓(xùn)練過程中使用了何人的何種作品,使用的數(shù)量具體是多少,都是難以確定的。此外,我國的著作權(quán)集體管理經(jīng)驗(yàn)尚不豐富,現(xiàn)行法下很難有集體管理組織代表權(quán)利人參與談判,并維護(hù)權(quán)利人的利益。就此而言,法定許可制度看似美好,但缺乏實(shí)施層面的可行性。
因此,從促進(jìn)人工智能產(chǎn)業(yè)發(fā)展的角度,應(yīng)在利用權(quán)利人作品訓(xùn)練人工智能的行為是否構(gòu)成合理使用的問題上采取寬松政策,即任何為訓(xùn)練人工智能利用他人作品的行為均應(yīng)免責(zé)。
結(jié)語
人工智能對人類社會最深遠(yuǎn)的影響在于,人工智能對人類勞動的取代,將影響特定群體的生存。隨著人工智能技術(shù)的不斷成熟,即使是沒有經(jīng)過專業(yè)訓(xùn)練的業(yè)余人士,也可以通過計(jì)算機(jī)指令生成大量的影視、音樂、文字或美術(shù)作品。這樣一來,傳統(tǒng)藝術(shù)創(chuàng)作者的市場競爭力無疑會受到影響,而人工智能的這種能力依賴于對傳統(tǒng)藝術(shù)創(chuàng)作者作品的學(xué)習(xí),因此不可能不遭到傳統(tǒng)藝術(shù)創(chuàng)作者的反對。
這是時代接受技術(shù)革新和應(yīng)用的必然結(jié)果,而非合理使用制度導(dǎo)致的惡果。
-----
作者陳紹玲,系華東政法大學(xué)知識產(chǎn)權(quán)學(xué)院副教授。法治中國,不在宏大的敘事,而在細(xì)節(jié)的雕琢。在“法治的細(xì)節(jié)”中,讓我們超越結(jié)果而明晰法治的脈絡(luò)。
- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2024 上海東方報業(yè)有限公司