劃重點(diǎn)
01生成式AI技術(shù)引發(fā)法律風(fēng)險(xiǎn)與司法適用難題,如深度偽造、知識(shí)產(chǎn)權(quán)侵權(quán)和隱私保護(hù)等。
02其中,深度偽造技術(shù)可制作虛假內(nèi)容,侵犯社會(huì)公共利益和他人合法權(quán)益。
03另一方面,生成式AI在訓(xùn)練與應(yīng)用階段可能泄露隱私和個(gè)人信息。
04為應(yīng)對(duì)這些難題,建議完善相關(guān)制度規(guī)范,落實(shí)技術(shù)監(jiān)管和倫理規(guī)范要求,提升司法能力。
05具體措施包括建立責(zé)任分擔(dān)機(jī)制、完善內(nèi)容標(biāo)識(shí)管理規(guī)定和技術(shù)監(jiān)管框架等。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
“
伴隨生成式AI技術(shù)的快速發(fā)展和廣泛應(yīng)用,隨之而來(lái)的法律風(fēng)險(xiǎn)與司法適用難題愈演愈烈,亟待破解
本文字?jǐn)?shù)4959,閱讀時(shí)長(zhǎng)約13分鐘
文|張平 北京大學(xué)武漢人工智能研究院副院長(zhǎng)、中國(guó)科學(xué)技術(shù)法學(xué)會(huì)常務(wù)副會(huì)長(zhǎng)兼秘書長(zhǎng)
編輯|郭麗琴以ChatGPT、Sora為代表的生成式AI(人工智能)技術(shù),基于其強(qiáng)大的學(xué)習(xí)能力與內(nèi)容生成能力,成為推動(dòng)新一輪產(chǎn)業(yè)升級(jí)的核心技術(shù)工具。
AI的重要性不言而喻,不論是2024年多個(gè)諾貝爾獎(jiǎng)獲得者對(duì)于AI的關(guān)注,抑或以O(shè)penAI、谷歌、微軟為首的100多家企業(yè)共同簽訂《人工智能公約》,中國(guó)也適時(shí)提出“人工智能能力建設(shè)普惠計(jì)劃”,并呼吁各方對(duì)AI能力建設(shè)加大投入。這些均表明,AI已成為全世界、全人類所共同關(guān)注的關(guān)鍵話題。
與此同時(shí),一些新技術(shù)引發(fā)的社會(huì)問(wèn)題也蔓延全球。例如,2024年5月21日曝光的“首爾大學(xué)版N號(hào)房”事件中,兩名嫌疑人涉嫌利用女校友的畢業(yè)照片和社交媒體照片,非法合成淫穢視頻,傳播到一款加密即時(shí)通信軟件上的聊天房中,邀請(qǐng)具有“變態(tài)性癖好”的人參與。2024年8月,韓國(guó)再次曝出采用新犯罪手段的 “Deepfake”(深度偽造技術(shù))事件,更是涉及未成年女孩,成為新型N號(hào)房事件。Deepfakes使用生成式AI技術(shù),將個(gè)人的聲音、面部表情及身體動(dòng)作拼接合成虛假內(nèi)容,極大影響了個(gè)人的合法權(quán)益與社會(huì)的公共利益。
這背后,是生成式AI的研發(fā)與應(yīng)用帶來(lái)的一系列法律風(fēng)險(xiǎn)及司法適用難題的縮影:不僅涉及知識(shí)產(chǎn)權(quán)保護(hù)、個(gè)人隱私保護(hù),以及內(nèi)容的真實(shí)性和可靠性等問(wèn)題,其智能化的特點(diǎn)也可能引發(fā)AI法律主體地位、侵權(quán)責(zé)任認(rèn)定等問(wèn)題。
面向2025年,筆者試圖深入探討這些難題背后的成因,并提出相應(yīng)的對(duì)策建議,以期為相關(guān)法律的完善和司法實(shí)踐提供理論支持和實(shí)踐指導(dǎo)。
01生成式AI的主要法律風(fēng)險(xiǎn)
對(duì)公眾而言,首要的危害便是深度偽造與虛假信息。
深度偽造(DeepFake)具有內(nèi)容的高度真實(shí)性與應(yīng)用范圍的普遍性。深度偽造技術(shù),一般指的是通過(guò)生成式對(duì)抗網(wǎng)絡(luò)(GANs)等技術(shù)手段分析海量數(shù)據(jù),學(xué)習(xí)特定的面部形態(tài)、表情模式以及動(dòng)作特征等內(nèi)容,創(chuàng)造出了大量虛假內(nèi)容的智能視頻生成技術(shù)。對(duì)該技術(shù)的濫用,極容易導(dǎo)致虛假信息的泛濫、降低社會(huì)公眾的信任感以及公共利益的損害。
一般而言,基于深度偽造技術(shù)所生成的虛假內(nèi)容一旦與特定的視頻、音頻片段結(jié)合,容易導(dǎo)致虛假新聞、誹謗侵權(quán)等法律風(fēng)險(xiǎn),尤其是通過(guò)該技術(shù)制作政治人物或特定事件的虛假內(nèi)容,極容易損害社會(huì)公共秩序與國(guó)家安全等核心利益。韓國(guó)出現(xiàn)的新型“N號(hào)房”事件,就是此類技術(shù)帶來(lái)危害的代表。
第二類是知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)。
生成式AI技術(shù)通過(guò)學(xué)習(xí)大量數(shù)據(jù)集,能夠創(chuàng)造出新的文本、圖像、音樂等作品,這一過(guò)程涉及復(fù)雜的算法和數(shù)據(jù)處理技術(shù)。然而,這些應(yīng)用在著作權(quán)領(lǐng)域引發(fā)了諸多挑戰(zhàn)。
具體而言,在前端的數(shù)據(jù)訓(xùn)練環(huán)節(jié),由于生成式AI的迭代升級(jí)需要海量數(shù)據(jù)作為訓(xùn)練“養(yǎng)料”,且基于高質(zhì)量訓(xùn)練數(shù)據(jù)的需求,生成式AI在前端數(shù)據(jù)訓(xùn)練的過(guò)程中不可避免地接觸大量作品內(nèi)容。一旦生成式AI研發(fā)者未經(jīng)著作權(quán)人許可,擅自使用作品數(shù)據(jù)以訓(xùn)練AI模型,則容易導(dǎo)致著作權(quán)侵權(quán)風(fēng)險(xiǎn)。與此同時(shí),基于海量數(shù)據(jù)所生成的內(nèi)容,如果與現(xiàn)存的著作權(quán)人作品存在“實(shí)質(zhì)性相似”,則同樣容易侵犯著作權(quán)人的合法權(quán)利。
在全國(guó)首例生成式AI侵權(quán)一案中,原告認(rèn)為被告在未經(jīng)許可的情況下,在被告所經(jīng)營(yíng)的AI繪畫網(wǎng)站中生成了與原告作品實(shí)質(zhì)性相似的內(nèi)容,如輸入“奧特曼”和“奧特曼融合美少女戰(zhàn)士”即生成了奧特曼形象圖片以及奧特曼形象與美少女形象融合的圖片,法院因此認(rèn)定被告利用AI所生成的內(nèi)容侵犯了原告的復(fù)制權(quán)、改編權(quán),應(yīng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任。
顯然,目前生成式AI的知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)已逐漸引起理論與司法實(shí)踐的關(guān)注,如何平衡技術(shù)發(fā)展需求與作者的合法利益已成為重中之重。
第三類涉及隱私與個(gè)人信息保護(hù)風(fēng)險(xiǎn)。
在生成式AI模型的訓(xùn)練與應(yīng)用階段,隱私與個(gè)人信息的安全性問(wèn)題日益凸顯。造成這一問(wèn)題的主要原因在于,這些模型通常依賴于大規(guī)模的數(shù)據(jù)集進(jìn)行學(xué)習(xí),而這些數(shù)據(jù)集可能未經(jīng)充分脫敏,從而包含了相關(guān)隱私信息或敏感個(gè)人信息。
在數(shù)據(jù)預(yù)處理階段,生成式AI模型可能會(huì)從公開渠道抓取大量未經(jīng)篩選或未經(jīng)標(biāo)記的數(shù)據(jù),這些數(shù)據(jù)可能含有個(gè)人身份信息、金融賬戶信息或其他敏感信息,增加了隱私泄露的風(fēng)險(xiǎn)。此外,生成式AI在生成內(nèi)容時(shí),可能會(huì)不當(dāng)使用這些個(gè)人信息,從而在用戶交互中無(wú)意中泄露了他人的隱私。這種現(xiàn)象不僅涉及技術(shù)層面的挑戰(zhàn),也觸及了倫理和法律的邊界,需要通過(guò)技術(shù)、法律和倫理的綜合策略來(lái)共同應(yīng)對(duì)和解決。
02司法適用中的難題
司法實(shí)踐層面生成式AI還可能造成適用難題。這些難題不僅包括真人驅(qū)動(dòng)型數(shù)字虛擬人的法律主體地位分析、現(xiàn)有AI制度規(guī)范與實(shí)踐的不適應(yīng),還包括生成式AI侵權(quán)責(zé)任的認(rèn)定問(wèn)題。
首當(dāng)其沖的難題是真人驅(qū)動(dòng)型數(shù)字虛擬人的法律主體地位問(wèn)題。
AI技術(shù)之所以引發(fā)理論與實(shí)踐層面的高度關(guān)注,不僅在于技術(shù)對(duì)于經(jīng)濟(jì)社會(huì)發(fā)展的極大賦能優(yōu)勢(shì),還在于AI技術(shù)“類人化”特性所可能導(dǎo)致的法律與倫理危機(jī)。其中,對(duì)于AI法律主體地位的爭(zhēng)議已成為科技與法律關(guān)系關(guān)注的焦點(diǎn)問(wèn)題,尤其是對(duì)真人驅(qū)動(dòng)型數(shù)字虛擬人法律主體地位的探討。
真人驅(qū)動(dòng)型數(shù)字虛擬人指的是通過(guò)運(yùn)用多項(xiàng)AI技術(shù),捕捉真人動(dòng)作、表情形態(tài)等行為特征所創(chuàng)造虛擬數(shù)字人形象。目前,司法實(shí)踐中對(duì)于真人驅(qū)動(dòng)型數(shù)字虛擬人的法律主體認(rèn)定持否定態(tài)度,認(rèn)為虛擬數(shù)字人并非法律意義層面的自然人,無(wú)法享受屬于自然人的法律權(quán)利。
在全國(guó)首例涉“虛擬數(shù)字人”侵權(quán)案中,法院認(rèn)定案件所涉及的虛擬數(shù)字人“在某種程度上僅是作者進(jìn)行創(chuàng)作的工具,不具有作者身份”,因此不享有表演者權(quán)以及其他著作權(quán)利。這意味著,盡管AI技術(shù)在一定程度上挑戰(zhàn)了傳統(tǒng)民法體系中自然人主體的相關(guān)理論,但司法實(shí)踐中對(duì)于真人驅(qū)動(dòng)型數(shù)字虛擬人的法律主體認(rèn)定仍持謹(jǐn)慎態(tài)度。這種立場(chǎng)反映了法律對(duì)于新興技術(shù)現(xiàn)象的適應(yīng)性和審慎性,同時(shí)也指出了法律在AI主體認(rèn)定上的困境。
第二個(gè)難題是現(xiàn)有制度規(guī)范與實(shí)踐的不適應(yīng)。
在關(guān)注因生成式AI所引發(fā)的法律問(wèn)題之時(shí),也同樣需要注重現(xiàn)有制度規(guī)范與實(shí)踐之間的協(xié)調(diào)關(guān)系。目前,生成式AI技術(shù)的出現(xiàn)引發(fā)了諸如知識(shí)產(chǎn)權(quán)侵權(quán)、隱私與個(gè)人信息保護(hù)等法律問(wèn)題的探討,其根本原因主要在于現(xiàn)有制度規(guī)范的缺失與實(shí)踐對(duì)相應(yīng)制度規(guī)范的需求之間的矛盾。
以生成式AI訓(xùn)練數(shù)據(jù)為例,基于著作權(quán)事前授權(quán)模式的限制,生成式AI難以在獲取海量數(shù)據(jù)之前逐一獲得著作權(quán)人許可,因此是否需要通過(guò)突破現(xiàn)有著作權(quán)規(guī)則推動(dòng)技術(shù)的創(chuàng)新發(fā)展存在爭(zhēng)議。此外,公眾對(duì)于知識(shí)產(chǎn)權(quán)、隱私與個(gè)人信息的保護(hù)需求日益增長(zhǎng),這要求法律制度和倫理規(guī)范必須不斷完善。如何在推動(dòng)技術(shù)發(fā)展與保護(hù)合法權(quán)益之間尋求平衡,已經(jīng)成為實(shí)踐關(guān)注的焦點(diǎn)。
總結(jié)來(lái)說(shuō),需要盡快完善與生成式AI相關(guān)的制度規(guī)范,彌補(bǔ)因技術(shù)發(fā)展所產(chǎn)生的規(guī)范漏洞,同時(shí)加強(qiáng)理論與實(shí)踐之間的緊密聯(lián)系。
此外,生成式AI侵權(quán)責(zé)任認(rèn)定同樣成為司法實(shí)踐中的一大難題。
在生成式AI所引發(fā)的著作權(quán)侵權(quán)糾紛中,由于AI所生成的內(nèi)容不僅包含用戶對(duì)于指令內(nèi)容的貢獻(xiàn),還包括AI服務(wù)提供者對(duì)于技術(shù)工具的貢獻(xiàn),這導(dǎo)致了在著作權(quán)侵權(quán)糾紛中難以準(zhǔn)確界定侵權(quán)的行為主體。
此外,侵權(quán)責(zé)任的承擔(dān)同樣成為司法實(shí)踐中的一大難題。生成式AI技術(shù)通過(guò)學(xué)習(xí)和模擬大量數(shù)據(jù),能夠生成與人類創(chuàng)作相類似的文本、圖像和音頻等內(nèi)容。然而,當(dāng)這些由生成式AI所生成的內(nèi)容涉及著作權(quán)侵權(quán)時(shí),責(zé)任的承擔(dān)變得尤為復(fù)雜。
造成以上問(wèn)題的主要原因在于,當(dāng)侵權(quán)行為發(fā)生時(shí),傳統(tǒng)的侵權(quán)責(zé)任認(rèn)定規(guī)則可能難以準(zhǔn)確適用。例如,如果生成的文本或圖像侵犯了他人的著作權(quán),那么確定責(zé)任歸屬可能需要考慮多個(gè)因素,包括用戶指令的性質(zhì)、系統(tǒng)的設(shè)計(jì)和功能,以及服務(wù)提供者對(duì)系統(tǒng)可能產(chǎn)生的侵權(quán)內(nèi)容的控制能力。因此,這也導(dǎo)致了司法實(shí)踐中法院難以準(zhǔn)確認(rèn)定生成式AI侵權(quán)糾紛的侵權(quán)主體,以及侵權(quán)行為與侵權(quán)結(jié)果之間的因果關(guān)系,進(jìn)而使得對(duì)于權(quán)利人合法權(quán)益的保護(hù)受到挑戰(zhàn)。
03建議與解決方案
要破解以上難題,不僅需要從制度規(guī)范層面完善生成式AI相應(yīng)的規(guī)則內(nèi)容,還應(yīng)落實(shí)對(duì)技術(shù)監(jiān)管和倫理規(guī)范的要求,同時(shí)加強(qiáng)司法能力的提升與適應(yīng),確保理論與實(shí)踐的深度結(jié)合,實(shí)現(xiàn)對(duì)技術(shù)的有效規(guī)制和合理應(yīng)用。
首先,需要完善與生成式AI相關(guān)的制度規(guī)范。這應(yīng)在保證既有規(guī)則適用性的基礎(chǔ)上,針對(duì)技術(shù)所觸發(fā)的風(fēng)險(xiǎn)問(wèn)題,實(shí)現(xiàn)制度規(guī)范的有效落實(shí)。
具體而言,一是借鑒傳統(tǒng)互聯(lián)網(wǎng)治理中的“避風(fēng)港”規(guī)則,建立起符合生成式AI產(chǎn)業(yè)發(fā)展的責(zé)任分擔(dān)機(jī)制。在此機(jī)制下,生成式AI服務(wù)提供者將在數(shù)據(jù)訓(xùn)練環(huán)節(jié)、內(nèi)容生成環(huán)節(jié)確保履行相應(yīng)的注意義務(wù),盡可能使用真實(shí)合規(guī)的AI訓(xùn)練數(shù)據(jù),并在信息生成階段設(shè)立過(guò)程性的風(fēng)險(xiǎn)預(yù)防和審查機(jī)制,確保依法合規(guī)地收集訓(xùn)練數(shù)據(jù),生成合法內(nèi)容。
與此同時(shí),還應(yīng)設(shè)置投訴舉報(bào)機(jī)制,該機(jī)制的核心在于確保用戶和權(quán)利人的投訴能夠得到快速響應(yīng)。AI服務(wù)提供者在接到投訴后,必須在合理的期限內(nèi)采取必要措施,如數(shù)據(jù)清理和算法調(diào)整,以防止違法內(nèi)容的進(jìn)一步傳播和擴(kuò)散。
二是針對(duì)生成式AI所引發(fā)的著作權(quán)侵權(quán)問(wèn)題,在著作權(quán)法既有規(guī)則的基礎(chǔ)上適當(dāng)擴(kuò)展“合理使用”的解釋空間,在條件成熟之時(shí),出臺(tái)相應(yīng)的生成式AI收集訓(xùn)練數(shù)據(jù)的合理使用條款,典型如設(shè)置文本與數(shù)據(jù)挖掘例外條款,使得AI數(shù)據(jù)訓(xùn)練行為具備合理使用的依據(jù)。
三是完善與生成式AI相關(guān)的內(nèi)容標(biāo)識(shí)管理規(guī)定,加強(qiáng)對(duì)深度偽造內(nèi)容的監(jiān)督,標(biāo)明AI生成內(nèi)容的合法來(lái)源,避免虛假信息的不當(dāng)傳播。
2024年9月14日,國(guó)家網(wǎng)信辦發(fā)布《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法(征求意見稿)》(下稱《征求意見稿》),此前,國(guó)家網(wǎng)信辦等部門已相繼出臺(tái)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等部門規(guī)章,提及網(wǎng)絡(luò)服務(wù)提供者對(duì)AI生成合成內(nèi)容的標(biāo)識(shí)義務(wù)。
值得關(guān)注的是,《征求意見稿》的發(fā)布進(jìn)一步完善與生成式AI相關(guān)的內(nèi)容標(biāo)識(shí)管理規(guī)定,有助于監(jiān)督深度偽造的內(nèi)容。但是由于目前其還處于征求意見階段,相關(guān)規(guī)定的話語(yǔ)表述仍需要社會(huì)公眾貢獻(xiàn)智慧以完善規(guī)定內(nèi)容,如對(duì)于顯式標(biāo)注和隱式標(biāo)注的規(guī)定應(yīng)更加具備可落實(shí)性,注重不同類型標(biāo)識(shí)在不同技術(shù)應(yīng)用場(chǎng)景的靈活度。
其次,基于AI技術(shù)演變的不確定性,有必要建立完善的技術(shù)監(jiān)管框架與倫理規(guī)范指引,從技術(shù)與倫理層面引導(dǎo)AI向善發(fā)展。
一方面,完善相應(yīng)的技術(shù)標(biāo)準(zhǔn)體系,加強(qiáng)對(duì)生成式AI技術(shù)的監(jiān)管能力。這意味著,不僅需要在技術(shù)標(biāo)準(zhǔn)層面明確生成式AI基礎(chǔ)定義、技術(shù)用語(yǔ)以及技術(shù)細(xì)節(jié)要求,如生成式AI數(shù)據(jù)使用的技術(shù)標(biāo)準(zhǔn)、算法安全標(biāo)準(zhǔn)以及系統(tǒng)安全標(biāo)準(zhǔn)等,為技術(shù)的健康發(fā)展提供清晰的指導(dǎo)和規(guī)范,還需要提升監(jiān)管主體的監(jiān)管水平與能力,提高其對(duì)新技術(shù)的理解與應(yīng)用能力。
另一方面,加強(qiáng)AI倫理規(guī)范指引,推動(dòng)AI向善發(fā)展。在倫理規(guī)范的制定上,堅(jiān)持落實(shí)以人為本的價(jià)值理念,加強(qiáng)AI倫理標(biāo)準(zhǔn)頂層設(shè)計(jì),在具體操作上落實(shí)可靠性、安全性、可解釋性等基本要求,將抽象的倫理標(biāo)準(zhǔn)要求落實(shí)到具體的AI系統(tǒng)設(shè)計(jì)以及實(shí)際操作的過(guò)程之中。實(shí)踐中,如微軟基于 Explainable Boosting Machine 算法開發(fā)的InterpretML,使得對(duì)于AI生成的結(jié)果更加具備可預(yù)測(cè)性與可解釋性,確保在促進(jìn)技術(shù)迭代升級(jí)的同時(shí),推動(dòng)技術(shù)健康、可持續(xù)的發(fā)展。
最后,解決因生成式AI所產(chǎn)生的司法適用難題還需要注重司法能力的提升,以及加強(qiáng)對(duì)技術(shù)發(fā)展新趨勢(shì)的適應(yīng)能力。
對(duì)于司法能力的提升,不僅要求司法實(shí)務(wù)工作者通過(guò)不斷學(xué)習(xí)與實(shí)踐,強(qiáng)化對(duì)新興技術(shù)的理解和應(yīng)用能力,及時(shí)更新現(xiàn)有的司法觀念,如通過(guò)加強(qiáng)對(duì)新興技術(shù)的教育與培訓(xùn),提高司法實(shí)務(wù)工作者對(duì)AI技術(shù)研發(fā)與應(yīng)用的理解,使其更好地處理新興技術(shù)所產(chǎn)生的司法糾紛;此外,還要求不斷完善司法工作機(jī)制,通過(guò)整理并學(xué)習(xí)司法實(shí)踐中所形成的裁判經(jīng)驗(yàn),明晰司法實(shí)踐中涉及新興技術(shù)相關(guān)的裁判規(guī)則,同時(shí)結(jié)合法律程序和技術(shù)手段,培養(yǎng)對(duì)技術(shù)難題的解決與應(yīng)對(duì)能力。
同時(shí),在應(yīng)對(duì)AI、大模型算法等新技術(shù)難題時(shí),應(yīng)在尊重現(xiàn)有法律規(guī)則體系的前提下,綜合考慮司法判決對(duì)技術(shù)發(fā)展、產(chǎn)業(yè)應(yīng)用、社會(huì)公共福利等內(nèi)容所造成的影響,確保在客觀、合理解決因技術(shù)所產(chǎn)生的司法難題時(shí),有效實(shí)現(xiàn)技術(shù)發(fā)展需求與保護(hù)合法權(quán)益之間的平衡。