每日經濟新聞 2024-05-22 18:30:02
◎歐陽昆潑在接受《每日經濟新聞》記者專訪時表示,關于AIGC的知識產權問題,目前在全世界范圍內糾紛非常多,國內已經有了幾個判例,但其中有互相矛盾之處。
◎歐陽昆潑表示,目前業界正在探討一個合理避讓原則。比如通過AI工具生成一個作品,屬于智力成果這部分應當受保護,如果是AI普適性則不受保護,但這個邊界目前還不容易區分。
每經記者 張蕊 每經編輯 陳旭
當地時間5月21日,歐盟理事會正式批準《人工智能法案》。
該法案經歐洲議會批準并經歐洲理事會主席簽署后,將于近日在歐盟官方公報上公布,并在公布20天后生效。
以大模型為代表的人工智能發展熱潮,在給我們帶來便捷與紅利的同時,也對現有法律體系帶來挑戰。對普通人而言,AI生成的東西可以直接使用嗎?有沒有侵權風險?AI虛擬人發表不當言論,該由誰來負責?
圍繞這一系列問題,《每日經濟新聞》(以下簡稱NBD)記者近日對“AIGC平臺著作權侵權全球第一案”代理律所浙江墾丁律師事務所聯合創始人歐陽昆潑進行了專訪。
NBD:先請您談談對AI生成作品版權歸屬問題的看法,我們平時工作中也會用到大模型,但有一個疑問:它生成的東西可以直接拿來用嗎?
歐陽昆潑 圖片來源:受訪者
歐陽昆潑:關于AIGC的知識產權問題,目前在全世界范圍內糾紛非常多,中國已經有了幾個判例,國外目前還沒判。
AI生成的作品到底受不受著作權保護,這里面爭議很大。有三個要點:它能不能構成作品;它受不受著作權保護;核心是以人的作品為中心,還是以作品為中心。
我國的著作權法規定構成作品有三大要素:一是它保護的是表達,不是思想;二是要有創造性;第三個要素現在爭議很大,到底是不是必須得是人的智力成果才行。
AIGC符合前兩點,但對它是不是屬于人的智力成果則有很大爭議。因為現在著作權法沒有直接說必須是人的智力成果才能受著作權守護,這是我們通過邏輯推導出來的,比如說權利必須嫁接在人上面才有意義。
舉例來說,美國發生了一個大猩猩拿照相機拍照的案例,爭議點就在這張照片到底能不能形成作品?就算形成作品又能怎么樣?有人侵權它了,難道大猩猩要起訴嗎?所以動物或者機器沒有權利訴求,那么保護它的權利就沒有意義。在這樣的前提下,就得出了著作權保護的必須是人的智力成果。
目前世界范圍內絕大部分國家都不認為AIGC屬于人的作品。美國版權局駁回了一個文生圖的版權登記,核心爭議點就是文生圖是不是人的直接智力成果。人借助照相機拍照,相機受人控制,但是AIGC不能直接控制人的成果,成果跟人之間是間接關系,它是大模型自己理解提示詞后生成的內容。
所以美國版權局給了一個形象的比喻。這就好比某個客戶找一個藝術家幫他畫某種風格的畫,會提出很多要求,但作品還是直接由藝術家產生。所以美國版權局駁回了它的版權登記。
目前歐洲、美國都還沒有判例來支持文生圖是受著作權保護的。但是,不受著作權保護,不代表它的權益不受保護,這是兩個概念。比如數據權屬也有爭議,數據是平臺收集的,到底是平臺的數據還是我們用戶的數據,但是平臺在收集過程中還是可以有經濟效益,如果你隨意侵權,還是可以追究平臺的法律責任。
中國目前已經出現了一些判例,但其中有互相矛盾之處。比如關于騰訊的判例,騰訊研發了一個軟件,用戶把數據導入進去后可以生成一篇股評文章,但生成的文章被另一家公司抄襲,騰訊隨即起訴對方公司構成知識產權侵權,法院判決認為構成侵權,構成侵權的要點是該作品直接體現了創作團隊的智力成果,作品屬于騰訊集體創作,屬于公司法人作品。
這里面分析的要點是:人的參與體現在兩點,即軟件開發灌輸了騰訊研發團隊的智力;同時,對于軟件生成的文章,比如文章結構、結論、調用哪個數據,是創作團隊作了很多參數安排的,傾注了創作團隊的思想。
不過這個判例引起了比較大的爭議,后面出現的另一個判例相當于又推翻了這個判例。一家律師事務所自己的寫作軟件生成的文章被百度使用,百度被起訴了,但百度勝訴了,理由是雖然軟件生成的文章有創造性,但它是機器的智力成果,不應受著作權保護。
NBD:能否詳細談談您所在律所代理的AIGC平臺侵權第一案?
歐陽昆潑:今年我們律所辦了奧特曼侵權的案子,最高人民法院也把它作為AIGC平臺侵權第一案。
我們當時代理的是奧特曼IP知識產權方,權利方發現有一個文生圖模型大量收集市面上的奧特曼IP數據,但使用該平臺的人眾多,所以當時考慮起訴平臺,因為平臺在訓練和后續使用過程中都存在未經授權的問題。
在使用該模型時,只要有一個提示詞提到“奧特曼”,就會生成一張奧特曼的圖片,其中一些圖片跟權利方基本上一模一樣,這就涉及侵犯復制權問題;另外,因為有些提示詞會修改,它生成的奧特曼就會改編,但是也能看出來是奧特曼,這就涉及侵犯改編權的問題。
最終法院判決平臺在訓練過程中,未經權利人許可使用其數據,構成侵權。我國相關法律規定,平臺有注意義務,其中就包括一些訓練數據來源必須獲得授權,如果有用戶去輸入相關提示詞(比如“奧特曼”),平臺有屏蔽義務,提示這個詞涉及侵權,否則就構成侵權。
回歸到著作權問題,核心還是在于平臺未經授權使用數據能否構成合理使用。因為如果是合理使用的著作權,是可以作為抗辯理由的,學習、科研都是合理使用范疇,目前美國、歐洲也都在探討合理使用的邊界,但是非常難。
因為這些大模型在訓練過程中,雖然一開始是免費,但實際上到最后都是要進行商業化使用,所以很難以學習、科研等理由歸入合理使用范疇。
雖然案件是我們辦的,但我們還是要檢討,這個案件的判決其實對AI行業發展還是有一些不利影響。如果嚴格要求一定要授權,一是會產生公平競爭問題,經濟實力越強的人,買的數據就越全面,經濟實力差的人在競爭中就會落后,這其實對行業有傷害;二是會產生偏見問題,如果有些模型數據不授權,就會造成輸出結果不一樣,可能會有很大的偏見。
但是如果訓練數據不需要授權,大家都合理使用,權利方又認為智力成果不受保護,所以其中的利益平衡非常難。當然,目前規則也還沒定,我國也很注重利益平衡問題,可能未來一些新的判例又會把這個案件的判決推翻。
NBD:設想這樣一個場景:兩個人都用同一個大模型來生成一篇文章,他們的提示詞可能不同,但最后生成的內容有一部分是相同的,這個內容會構成抄襲嗎?如果是抄襲,是抄襲誰?或者說誰在抄襲?
歐陽昆潑:大模型不像以前的簡單工具,在提示詞和生成結果之間有一個很長的過程,這個過程是一個黑洞,我們都不知道它生成這樣一個東西的原理是什么。
所以如果兩人輸出的內容有相似之處,到底這個權利屬于誰?這又回到第一個話題。
目前除了我國有相關的判例以外,其他國家都不認可AIGC屬于著作權保護范疇,不形成作品,就不存在著作權問題。美國、歐洲很多案件都是以私下調解來結案,那些大法官很謹慎,他要做判決必須得論證利益平衡問題,對未來發展問題考慮得非常全面,所以目前暫時還是擱置不談。
但就我國的情況而言,因為目前幾個法院判決結果不完全一樣,如果按照AIGC屬于作品的邏輯,那因為這兩人都是獨立創作,這時候兩人互相不構成侵權,但如果有第三方再進行使用,這兩人都可以共同起訴。
另外,現在學術實踐有探討一個合理避讓原則。比如美國版權局現在也在考慮,人是通過AI這個工具產生這個作品,屬于智力成果這部分應當受保護,如果是AI普適性則不受保護,但這個邊界也不容易區分?,F在美國版權已經放開了,如果是版權登記,會讓用戶區分出哪些跟智力成果直接相關,這部分受保護,如果不相關就不受保護。
所以如果兩人生成的內容有相同部分,說明這部分內容是幾個平臺普適性、共適性的內容,屬于AI自己共同數據訓練出來,就不屬于創作者的智力成果,不屬于就意味著不受保護,美國版權局已經開始做這個規則了。
從學術探討角度而言,知識產權法本來就是人類文明的一個基石,如果處理不好對大家創造的傷害很大。近年來我國越來越重視知識產權,我們的方向也是會嚴厲打擊侵權行為。
NBD:前段時間京東集團董事局主席劉強東AI數字人下場直播,引發廣泛關注。如果AI數字人或虛擬數字主播被用于惡意目的,怎么來追責?
歐陽昆潑:目前追責還是從使用者角度來入手,其中包含幾個主體,比如誰制作的、誰傳播的,而平臺的責任就類似于互聯網領域的避風港原則和紅旗原則。
比如有人利用我的形象產生侵權行為,并發布在某一個平臺上,那么制作的人肯定構成侵權。但這個平臺也有審核義務,它適用兩個原則,即避風港原則和紅旗原則。避風港原則指的是平臺不一定能所有都審核到,但如果有人投訴,平臺要負責下架。就像如果電商平臺上有很多假貨,它有投訴平臺,一旦被投訴平臺只要下架就不構成侵權,就不會產生法律責任,否則需承擔連帶責任。
紅旗原則指的是如果明顯存在違法,平臺事先就有屏蔽義務。比如有人把明星的臉拿去涉黃,這是很明顯的侵權行為,平臺必須事先做一些合規動作,比如通過AI審核工具進行關鍵字屏蔽,合規人員檢查等,平臺有義務去加強監管。
NBD:AI虛擬人說的話可以當成是真人本人說的嗎?
歐陽昆潑:現在有很多公司在做虛擬人,很多電商平臺也都在利用AI虛擬人帶貨。目前法律對這方面還沒有明確規定,我們只能從原有框架去探討。
首先,必須保證AI虛擬人是經過授權的,比如使用你的形象、聲音,就要經過你的授權。
其次,平臺有披露義務,不能故意隱瞞。比如直播給觀眾看,就要明確告知并非真人直播,如果是使用明星的形象、聲音,也要提示是經過授權。
如果使用了知名人士的聲音和形象,而不披露是虛擬人,會對觀眾造成誤導,觀眾會以為是真人本人,這樣一旦虛擬人發表了不當言論,其名譽權有被侵犯的風險,作為權利方是可以起訴的。實際上目前有很多平臺是故意來誤導用戶,不進行披露,是存在法律風險的。
NBD:那對形象或聲音的授權方來說,如何避免法律風險?
歐陽昆潑:那就要事先簽訂責任協議,明確權利義務邊界,我只提供我的形象、聲音,播出內容與我無關,內容要使用方來承擔責任。同時,使用方還要進行披露,避免誤導觀眾。
NBD:在這種情況下,如果AI虛擬人發表了一些不當言論,本人就不用承擔責任了?
歐陽昆潑:對,那就是使用者的責任了。我國對直播內容有明確要求,必須要內容合規,不能涉黃等,如果虛擬人發表了不當言論,也要看是主觀故意還是技術原因,技術原因也可以鑒定出來到底是不是在訓練時惡意或故意誘導,根據過錯情節來承擔相應法律責任。
NBD:AI的發展是否會對現有的法律體系和監管機制帶來挑戰?
歐陽昆潑:我認為是帶來了比較大的挑戰。我們律所寫了一本書叫《無技術不法律》,法律實際上是上層建筑,因為技術是第一生產力,這些規則都跟技術相關。
封建時代是沒有公司法、知識產權法的,甚至民法和商法也沒有,有的只是一部刑法。到工業革命之后產生這些法律,是因為底層技術變了,產生公司、組織等。到互聯網時代,又出現了數據法、網絡安全法、電商法等。
這些法律都跟技術相關,有什么樣技術就有什么樣的法律形態。人工智能如果繼續普及,很多底層邏輯也要發生變化,相應的法律也會進行調整。
目前業界都在探討,如果人利用AI詐騙,到底是抓設計工具的人還是使用的人,該怎么區分他們的責任,已經產生很多法律問題;包括知識產權到底構不構成著作權,是以著作權體系框架來保護還是設置一個新的權利體系來保護,這些都是新出現的問題。
NBD:我國目前還沒有專門的人工智能法?
歐陽昆潑:我們有一個《生成式人工智能服務管理暫行辦法》,但因為也是才發展起來的產業,還沒有形成大法。
NBD:要形成您說的這種專門大法,它需要有哪些要點?
歐陽昆潑:目前歐盟正式批準《人工智能法案》,我國如果要形成這種法律規定還需要產業發展到一定程度,產生很多案例和豐富的應用場景,“一個案例相當于一千篇論文”,很多時候是從實踐去推動立法,案例達到一定的量,規則邊界越來越清晰,就會有形成一個法典的基礎條件。
民法典之所以近幾年才產生,是因為以前很多場景不具備,所以以前都是單行法,只有在不斷實施過程中產生更多場景、案例,才有素材來制定一部適合我國國情的法律規定,否則照搬別人的東西就是空中樓閣。
當然,我國的數據安全法借鑒了很多國外的內容,這就需要在施行過程中不斷調整來符合我國國情。而數據安全法之所以出臺,是因為我們有數據出境方面的問題,涉及國家安全,必須馬上出臺,否則無法可依,并且可能會被美國、歐盟找到漏洞去侵害我國的數據權利。
封面圖片來源:受訪者提供
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP