展會(huì)信息港展會(huì)大全

如何在生成式人工智能技術(shù)環(huán)境中保護(hù)商業(yè)秘密?
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-18 10:58:53   瀏覽:9777次  

導(dǎo)讀:圖片來(lái)源@視覺(jué)中國(guó) 文 | InternetLawReview,作者 |Anthony M. Insogna等律師,眾達(dá)律師事務(wù)所(JonesDay)知識(shí)產(chǎn)權(quán)部,翻譯:《互聯(lián)網(wǎng)法律評(píng)論》編輯部 2023年4月,三星員工因使用ChatGPT處理工作發(fā)生三起絕密數(shù)據(jù)泄露的事件,而且均發(fā)生在三星電子半導(dǎo)體暨...

圖片來(lái)源@視覺(jué)中國(guó)

文 | InternetLawReview,作者 |Anthony M. Insogna等律師,眾達(dá)律師事務(wù)所(JonesDay)知識(shí)產(chǎn)權(quán)部,翻譯:《互聯(lián)網(wǎng)法律評(píng)論》編輯部

2023年4月,三星員工因使用ChatGPT處理工作發(fā)生三起絕密數(shù)據(jù)泄露的事件,而且均發(fā)生在三星電子半導(dǎo)體暨裝置解決方案項(xiàng)目上。出于安全考慮,三星電子決定禁止員工使用ChatGPT、Google Bard和Bing等流行的生成式AI工具,并準(zhǔn)備推出內(nèi)部工具。

員工因使用生成式 AI 應(yīng)用程序可能導(dǎo)致泄露敏感信息威脅公司的商業(yè)機(jī)密,這導(dǎo)致一些公司禁止員工在工作中使用這些應(yīng)用程序。據(jù)此前媒體報(bào)道,摩根大通、美國(guó)銀行和花旗等華爾街大行已禁止或限制使用ChatGPT。

雖然禁用是一種解決方案,但有沒(méi)有既可以合理保護(hù)商業(yè)秘密同時(shí)還享受利用生成式人工智能便利的解決方案?《互聯(lián)網(wǎng)法律評(píng)論》今日刊載眾達(dá)律師事務(wù)所(Jones Day)知識(shí)產(chǎn)權(quán)部律師們的一篇文章,看看他們的建議。

大型語(yǔ)言模型等生成式 AI 應(yīng)用程序已成為所有行業(yè)分析數(shù)據(jù)和生成工作產(chǎn)品的突破性工具。然而,正如最近的新聞所顯示的那樣,這些工具對(duì)公司的商業(yè)秘密構(gòu)成了獨(dú)特的威脅:這些應(yīng)用程序捕獲存儲(chǔ)他們的輸入以訓(xùn)練他們的模型;一旦被捕獲,輸入到這些應(yīng)用程序中的信息通常無(wú)法被用戶刪除,而且很可能會(huì)被應(yīng)用程序使用、被AI背后的公司進(jìn)行審查。如果員工將公司的商業(yè)秘密輸入到 AI中,公司可能會(huì)面臨無(wú)法保護(hù)其商業(yè)秘密的風(fēng)險(xiǎn)。

為避免因使用人工智能系統(tǒng)而導(dǎo)致的任何披露后果,公司必須確保他們采取合理措施保護(hù)其商業(yè)秘密。本文分析了保護(hù)公司商業(yè)秘密免受員工使用生成式 AI 應(yīng)用程序影響的潛在措施。

生成式人工智能無(wú)意中泄露商業(yè)秘密的可能性

生成式 AI 應(yīng)用程序具有為各行各業(yè)的公司提高生產(chǎn)力和創(chuàng)建創(chuàng)新解決方案的巨大潛力。例如,在軟件行業(yè)中,越來(lái)越多的應(yīng)用程序可以解析自然和編程語(yǔ)言輸入以生成或測(cè)試源代碼。在生命科學(xué)領(lǐng)域,人工智能應(yīng)用程序可以獲取氨基酸序列并預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)。隨著生成人工智能領(lǐng)域的不斷創(chuàng)新,此類工具的潛力和使用只會(huì)繼續(xù)增長(zhǎng)。

生成式人工智能應(yīng)用程序能夠通過(guò)從公共來(lái)源和接收到的大量數(shù)據(jù)中推斷信息、自主創(chuàng)建原創(chuàng)內(nèi)容。收集的數(shù)據(jù)通常保留在支持生成人工智能應(yīng)用程序的公司控制的服務(wù)器上。但是,此數(shù)據(jù)收集過(guò)程涉及使用這些應(yīng)用程序的公司的各種商業(yè)秘密問(wèn)題。在使用生成人工智能平臺(tái)后敏感信息被泄露給第三方的報(bào)道之后,許多企業(yè)已經(jīng)全面禁止和限制在工作中使用生成人工智能以保護(hù)他們的專有信息。

員工輸入公司機(jī)密或其他敏感信息作為生成 AI 應(yīng)用程序的提示存在三個(gè)主要問(wèn)題:

1.根據(jù)相應(yīng)的最終用戶許可協(xié)議的條款,支持的公司生成式 AI 應(yīng)用程序可能會(huì)審查、發(fā)布或出售該敏感信息

2.應(yīng)用程序本身可以通過(guò)使用敏感信息訓(xùn)練其響應(yīng)來(lái)為第三方重用此敏感信息;

3.如果支持生成人工智能應(yīng)用程序的公司存在安全漏洞,第三方可能會(huì)訪問(wèn)敏感信息。此外,如果發(fā)生泄露,員工用戶無(wú)法檢索或刪除輸入到應(yīng)用程序中并存儲(chǔ)在應(yīng)用程序中的敏感信息。

目前,可以做更多的工作來(lái)保護(hù)公司的商業(yè)秘密不被員工泄露。根據(jù)調(diào)研信息,使用生成式 AI 工具的員工中有 70% 沒(méi)有向雇主報(bào)告此類使用情況。這種情況反映出許多公司在生成人工智能熱潮之后尚未實(shí)施嚴(yán)格的政策。通過(guò)實(shí)施更新的商業(yè)秘密保護(hù)政策,公司可以更好地為日益增長(zhǎng)的生成人工智能應(yīng)用程序做好準(zhǔn)備。

五種使用生成式AI的防泄密策略分析

除了公司保護(hù)其商業(yè)秘密的標(biāo)準(zhǔn)政策外,還有幾種解決方案可以通過(guò)使用生成式AI進(jìn)一步防止商業(yè)秘密泄露:

1、一攬子禁令

從大型跨國(guó)公司最近的一些公告中可以看出,防止通過(guò)生成式AI泄露商業(yè)秘密的一種解決方案是完全禁止將生成AI用于與工作相關(guān)的任務(wù)。

實(shí)施此解決方案的一種方法是阻止員工下載軟件和訪問(wèn) Web 應(yīng)用程序,這將阻止大多數(shù)員工使用它。另一種實(shí)施方式是簡(jiǎn)單地指示員工不要使用該軟件,這種實(shí)施方式更簡(jiǎn)單,但在防止員工使用該軟件方面效果較差。定期監(jiān)控和審計(jì)有助于發(fā)現(xiàn)和防止?jié)撛诘倪`規(guī)行為。但是,這兩種情況都需要不斷的維護(hù)和監(jiān)督才能有效。隨著生成式AI的使用激增,這可能變得不切實(shí)際。

2、強(qiáng)大的訪問(wèn)控制

全面禁止生成人工智能的替代方法是限制其訪問(wèn)和使用。

大部分公司應(yīng)該已經(jīng)建立了某些協(xié)議,來(lái)限制對(duì)敏感數(shù)據(jù)的訪問(wèn)。同樣,公司應(yīng)該考慮建立協(xié)議來(lái)限制誰(shuí)可以操作生成式AI系統(tǒng)并與之交互。除了限制誰(shuí)有權(quán)訪問(wèn)外,公司還應(yīng)考慮限制或?qū)彶榭捎米魃墒?AI 應(yīng)用程序輸入的內(nèi)容。例如,可以使用軟件來(lái)防止將某些關(guān)鍵詞或短語(yǔ)用作輸入。與全面禁止一樣,定期監(jiān)控和審計(jì)也有助于發(fā)現(xiàn)和防止?jié)撛诘倪`規(guī)行為。相應(yīng)的最終用戶許可協(xié)議(end-user license agreements, EULA)也可以告知這些注意事項(xiàng)。

3、企業(yè)許可證

選擇允許使用生成式 AI 的公司應(yīng)考慮獲得企業(yè)許可證,該許可證對(duì) AI 提供商可以對(duì)系統(tǒng)提示或其他輸入進(jìn)行的操作施加限制。例如,個(gè)人用戶訂閱的 EULA 可能指定輸入可用于訓(xùn)練底層模型以供第三方使用。相比之下,企業(yè)許可證可能規(guī)定輸入要么不能用于訓(xùn)練基礎(chǔ)模型,要么只能由公司使用(排除第三方)。

4、第三方保護(hù)

除了員工可能使用生成式 AI 之外,承包商和其他第三方也可能使用生成式 AI。公司必須審查其現(xiàn)有合同,并考慮是否對(duì)這些第三方實(shí)施上述任何政策。

5、員工教育和意識(shí)

無(wú)論公司是否禁止、限制甚至鼓勵(lì)使用生成式 AI,提高員工對(duì)商業(yè)秘密保護(hù)的重要性以及與生成式 AI 相關(guān)的風(fēng)險(xiǎn)的認(rèn)識(shí)至關(guān)重要。法院一直認(rèn)為,公司已采取合理措施通過(guò)保持最新的員工協(xié)議和政策來(lái)保護(hù)其商業(yè)秘密。因此,公司應(yīng)更新其員工手冊(cè)、協(xié)議和政策以解決生成人工智能的使用問(wèn)題,并開(kāi)展培訓(xùn)計(jì)劃以教育員工處理敏感信息,強(qiáng)調(diào)圍繞商業(yè)秘密的法律和道德義務(wù)。

結(jié)論

生成式AI的出現(xiàn)帶來(lái)了巨大的機(jī)遇,但也為保護(hù)公司機(jī)密信息和商業(yè)秘密帶來(lái)了挑戰(zhàn)。無(wú)論公司選擇禁止、限制還是允許使用生成式AI,他們都應(yīng)該實(shí)施穩(wěn)健的安全措施、制定明確的政策并培養(yǎng)意識(shí)文化以降低風(fēng)險(xiǎn)。通過(guò)積極應(yīng)對(duì)這些挑戰(zhàn),企業(yè)可以保護(hù)其寶貴的知識(shí)產(chǎn)權(quán)資產(chǎn),并在不斷發(fā)展的人工智能領(lǐng)域保持競(jìng)爭(zhēng)優(yōu)勢(shì)。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港