展會(huì)信息港展會(huì)大全

人工智能立法加快,國(guó)家為何有如此緊迫感?丨快評(píng)
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-18 10:56:37   瀏覽:9146次  

導(dǎo)讀:數(shù)月以來(lái),以大語(yǔ)言模型ChatGPT為代表的生成式人工智能在全球掀起陣陣狂潮,帶來(lái)驚奇、歡呼、擔(dān)憂、恐懼的多重反應(yīng)。人工智能一日千里的更新迭代,自然引發(fā)了監(jiān)管呼聲。日前,國(guó)辦發(fā)布國(guó)務(wù)院2023年度立法工作計(jì)劃,其中預(yù)備提請(qǐng)人大常委會(huì)審議的人工智能法草...

數(shù)月以來(lái),以大語(yǔ)言模型ChatGPT為代表的生成式人工智能在全球掀起陣陣狂潮,帶來(lái)驚奇、歡呼、擔(dān)憂、恐懼的多重反應(yīng)。人工智能一日千里的更新迭代,自然引發(fā)了監(jiān)管呼聲。日前,國(guó)辦發(fā)布“國(guó)務(wù)院2023年度立法工作計(jì)劃”,其中預(yù)備提請(qǐng)人大常委會(huì)審議的“人工智能法草案”,就此引發(fā)公眾矚目。

2023年3月,以馬斯克為首的企業(yè)界人士聯(lián)署公開信,呼吁立即暫停AI大模型研究至少六個(gè)月;在美國(guó)國(guó)會(huì)聽證會(huì)上,OpenAI公司CEO奧特曼也表達(dá)了“主動(dòng)求監(jiān)管”的態(tài)度。國(guó)家網(wǎng)信辦2023年4月11日發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿),目前向社會(huì)征求意見的工作已結(jié)束,也可視為中國(guó)立法監(jiān)管人工智能的初步嘗試,屬政府立法。

國(guó)務(wù)院立法工作,大致分為兩類,一類是國(guó)務(wù)院起草法律草案提請(qǐng)全國(guó)人大常委會(huì)審議,一類是國(guó)務(wù)院直接制定頒布行政法規(guī)。前者從程序上看是人大立法,后者是政府立法。

綜觀全球各地對(duì)人工智能的監(jiān)管設(shè)想,一種迫在眉睫的緊迫感貫穿始終。從科技商業(yè)界到文化界,從社會(huì)大眾到政府機(jī)構(gòu),各界人士都展現(xiàn)了“人類監(jiān)管進(jìn)程,定要趕上人工智能發(fā)展速度”的態(tài)度,馬斯克等人在公開信中的那句“唯有我們有信心讓強(qiáng)人工智能系統(tǒng)產(chǎn)生積極效應(yīng)同時(shí)風(fēng)險(xiǎn)可控的時(shí)候,我們才應(yīng)該研發(fā)它們”,正是這種緊迫感的集中寫照。

緊迫感源于前瞻與預(yù)見。全球各界對(duì)人工智能發(fā)出的警報(bào)可分為兩大類,形而下的與形而上的。從形而上來(lái)講,“未來(lái)99%的人都會(huì)失業(yè)”“人工智能足夠強(qiáng)大后會(huì)控制人類”,這些準(zhǔn)科幻式或是未來(lái)學(xué)式的狂想雖然吸引了足夠多的關(guān)注度,但缺少足夠的證明,部分設(shè)想也顯得天馬行空。指望立法監(jiān)管一下子邁出那么大的步伐,在實(shí)踐中也缺乏可行性。

從形而下來(lái)講,數(shù)據(jù)隱私、知識(shí)產(chǎn)權(quán)、詐騙犯罪等問(wèn)題,則是公眾的普遍隱憂,這些問(wèn)題在移動(dòng)互聯(lián)網(wǎng)時(shí)代甚至移動(dòng)通訊時(shí)代就已經(jīng)非常嚴(yán)重,強(qiáng)人工智能無(wú)疑會(huì)給違法犯罪插上新的翅膀,加大應(yīng)對(duì)難度,容易引發(fā)種種法律問(wèn)題甚至是倫理爭(zhēng)議。如果說(shuō)形而上的恐懼還只是恐懼的話,那么這形而下的擔(dān)憂則已經(jīng)是實(shí)際發(fā)生過(guò)的事實(shí)“未來(lái)已來(lái)”。

日前包頭警方發(fā)布了一起利用人工智能實(shí)施電信詐騙的典型案例,騙子以智能AI換臉和擬聲技術(shù),完美地假裝好友實(shí)施了詐騙;而利用“AI換臉”經(jīng)營(yíng)牟利甚至是用于淫穢色情產(chǎn)業(yè)的案件也已經(jīng)屢屢出現(xiàn)?梢,不法之徒已經(jīng)走在了立法監(jiān)管的前面。

因此,為人工智能立法應(yīng)特別注重前瞻性,思考強(qiáng)人工智能可能帶來(lái)的種種問(wèn)題,保護(hù)公眾的人格隱私權(quán)、財(cái)產(chǎn)權(quán)、知識(shí)產(chǎn)權(quán);同時(shí)立法還應(yīng)突出針對(duì)性:技術(shù)本身是中性的,立法是為了更好的監(jiān)管,監(jiān)管則是為了更好發(fā)展人工智能產(chǎn)業(yè),讓他們?yōu)槿祟愒旄6皇轻劦湣?/p>

新的立法還應(yīng)考慮對(duì)癥下藥,參考世界各國(guó)與國(guó)際組織已經(jīng)出臺(tái)的監(jiān)管嘗試,可擇善而從,但不盲從,針對(duì)性地解決種種已經(jīng)出現(xiàn)的問(wèn)題,既要避免誤傷善類,也要防止網(wǎng)漏吞舟。

以“AI換臉”為例,“平臺(tái)強(qiáng)制標(biāo)注”的技術(shù)補(bǔ)丁就是一個(gè)值得借鑒的建議;就知識(shí)產(chǎn)權(quán)問(wèn)題,歐盟《人工智能法》的協(xié)議要求ChatGPT披露其用于開發(fā)的受版權(quán)保護(hù)的材料,美國(guó)版權(quán)局宣布“純AI生成內(nèi)容不受版權(quán)保護(hù)”,這都是很具針對(duì)性的立法實(shí)踐;而在“AI詐騙犯罪”已出現(xiàn)之際,如何像打擊電信詐騙一樣打擊黑科技騙子,也是立法監(jiān)管的重頭戲。

誠(chéng)如有識(shí)之士所言,人類無(wú)法承擔(dān)無(wú)法監(jiān)管強(qiáng)人工智能的風(fēng)險(xiǎn)。面對(duì)種種風(fēng)險(xiǎn)與挑戰(zhàn),監(jiān)管工作無(wú)疑要在“預(yù)先防范”與“精準(zhǔn)施策”上下功夫。托馬斯卡萊爾曾在近二百年前的《時(shí)代征兆》一文里感慨蒸蒸日上的機(jī)械時(shí)代,“如今,不僅外在的、物質(zhì)的層面受機(jī)械控制,內(nèi)在的、精神的層面也未能幸免。沒有什么事情還能順其自然,也沒有什么事情還能用古老的自然方法完成。”展望未來(lái),將這段話里的“機(jī)械”換成“人工智能”也足以讓我們戒慎恐懼。人工智能值得更具前瞻性與針對(duì)性的立法監(jiān)管,導(dǎo)之向善而非任其作惡。

王兢

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港