展會(huì)信息港展會(huì)大全

孫茂松:人工智能不發(fā)展才是最大的不安全,要用高超技術(shù)“治理”
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-04-30 14:11:50   瀏覽:7303次  

導(dǎo)讀:騰訊科技訊(郭曉靜)4月25日,2024中關(guān)村論壇在北京開幕,本屆論壇以創(chuàng)新:建設(shè)更加美好的世界為主題。4月26日,論壇舉辦了以數(shù)據(jù)安全治理與發(fā)展為主題的分論壇。歐洲科學(xué)院院士、清華大學(xué)人工智能研究院常務(wù)副院長孫茂松,圍繞《人工智能大模型安全治理》...

科技新聞?dòng)崳ü鶗造o)4月25日,2024中關(guān)村論壇在北京開幕,本屆論壇以“創(chuàng)新:建設(shè)更加美好的世界”為主題。4月26日,論壇舉辦了以“數(shù)據(jù)安全治理與發(fā)展”為主題的分論壇。歐洲科學(xué)院院士、清華大學(xué)人工智能研究院常務(wù)副院長孫茂松,圍繞《人工智能大模型安全治理》發(fā)表主題演講演講。

隨著人工智能大模型的不斷迭代升級,其性能得到優(yōu)化的同時(shí)也帶來了安全風(fēng)險(xiǎn)的增加,可能導(dǎo)致價(jià)值偏見、隱私泄露、虛假信息等問題的出現(xiàn)。孫茂松贊同人工智能治理的必要性,但是同時(shí)表達(dá)了要“運(yùn)用高超的治理技術(shù)對人工智能進(jìn)行治理“。他認(rèn)為南開大學(xué)前校長龔克的觀點(diǎn)十分正確,“人工智能不發(fā)展就是最大的不安全”,大模型確實(shí)存在安全隱患,我們不能讓水太混,但是也要避免“水至清則無魚”的情況。

以下為演講實(shí)錄:

尊敬的各位領(lǐng)導(dǎo)、專家,數(shù)據(jù)安全是一個(gè)重大問題。在此,我想分享一些個(gè)人看法,若有不成熟之處,還請大家不吝批評指正。

2023年4月,中央政治局召開會(huì)議,強(qiáng)調(diào)了重視通用人工智能發(fā)展的重要性,并提出了兩個(gè)任務(wù):一是營造創(chuàng)新生態(tài),二是重視風(fēng)險(xiǎn)防范。在我看來,這在中國乃至世界人工智能發(fā)展歷史上都具有里程碑意義,因?yàn)橹醒胍呀?jīng)正式采納了“通用人工智能”這一概念,預(yù)示著這一領(lǐng)域在中國將迎來巨大的發(fā)展前景。

當(dāng)然,在這一發(fā)展過程中,我們必須運(yùn)用極大的智慧來完成這兩項(xiàng)任務(wù)。一方面,人工智能,特別是生成式人工智能,作為新質(zhì)生產(chǎn)力的重要引擎,已經(jīng)在全球范圍內(nèi)形成了共識。我記得南開大學(xué)和天津大學(xué)前校長龔克先生曾提出一個(gè)觀點(diǎn),我非常贊同,即“人工智能不發(fā)展就是最大的不安全”。另一方面,生成式人工智能由于其方法的特性,確實(shí)存在一些安全隱患,如幻覺現(xiàn)象等,因此,對其進(jìn)行治理是必要的。我們不能讓水太渾,但同時(shí)也要避免“水至清則無魚”的情況,這確實(shí)需要我們運(yùn)用高超的治理技術(shù)。

過去一年,我有幸在北京網(wǎng)信辦許主任的領(lǐng)導(dǎo)下參與了一些大模型治理工作。作為一名專家,我感到北京網(wǎng)信辦在這方面的把握非常準(zhǔn)確,很好地落實(shí)了中央的精神,這是我的一點(diǎn)感受。

剛才郭校長也提到了對生成式人工智能進(jìn)行治理的重要性,我個(gè)人認(rèn)為這一點(diǎn)在全球范圍內(nèi)已經(jīng)形成了共識。無論是美國、歐洲還是中國,大家都認(rèn)同需要對人工智能進(jìn)行治理,而且大的原則基本相似,如“人工智能向善”、“人工智能不作惡”等。因此,我認(rèn)為在全球范圍內(nèi)提出一個(gè)能夠被廣泛接受的治理框架的條件已經(jīng)基本成熟。

當(dāng)然,在具體的善惡判斷上,不同地區(qū)可能會(huì)有一些差異,但總體上,我認(rèn)為是可以形成共識的。生成式人工智能帶來的技術(shù)挑戰(zhàn)確實(shí)存在,比如它能夠大量產(chǎn)生數(shù)據(jù)。我之前的研究領(lǐng)域是機(jī)器翻譯,我們曾從互聯(lián)網(wǎng)上抓取大量人工翻譯的雙語段作為依據(jù)。后來我們發(fā)現(xiàn),機(jī)器翻譯產(chǎn)生的雙語段質(zhì)量并不高,如果用這些數(shù)據(jù)訓(xùn)練機(jī)器翻譯系統(tǒng),反而會(huì)造成損害。因此,我們必須依靠技術(shù)來甄別互聯(lián)網(wǎng)上的雙語段,哪些是人工翻譯的,哪些是機(jī)器翻譯的。這正是生成式人工智能帶來的挑戰(zhàn)之一。

此外,隨著其生成能力的增強(qiáng),如果放任不管,機(jī)器生成的內(nèi)容很快就會(huì)超過人類創(chuàng)作的內(nèi)容,而且其中很多內(nèi)容可能與事實(shí)不符。如果用這些內(nèi)容來訓(xùn)練我們的大模型,將會(huì)帶來麻煩。因此,這一領(lǐng)域確實(shí)面臨著許多深層次的挑戰(zhàn),需要全球各國政府和學(xué)者共同努力,從技術(shù)上解決這些問題。

我認(rèn)為,我們現(xiàn)在應(yīng)該著手做的一件事是建立一個(gè)權(quán)威的生成式人工智能安全評測數(shù)據(jù)集。未來所有上線的大模型都應(yīng)該先通過這個(gè)數(shù)據(jù)集的測試,確保其能夠反映所有的正能量。然而,構(gòu)建這樣一個(gè)數(shù)據(jù)集本身也面臨著挑戰(zhàn),因?yàn)樗枰w方方面面的內(nèi)容。我認(rèn)為,我們應(yīng)該遵循“法無禁止即可為”的原則,明確測試集中的負(fù)面清單,即明確哪些是不能觸碰的,而在不觸碰負(fù)面清單的前提下,應(yīng)盡可能保持寬松。因此,這一塊可能是我們應(yīng)該立即著手去做的。

但是,生成式人工智能不僅僅是在治理上給我們帶來問題。實(shí)際上,國際上現(xiàn)在也在討論,生成式人工智能其實(shí)也是對安全治理提供了新的、更有效的手段。例如,在數(shù)據(jù)中存在許多隱私問題,但我們可以使用生成式人工智能生成符合真實(shí)情況的數(shù)據(jù),同時(shí)規(guī)避隱私風(fēng)險(xiǎn)。這顯示了生成式人工智能的威力,如果沒有這項(xiàng)技術(shù),我們以前是無法做到這一點(diǎn)的。

另外,我們面臨的管理環(huán)境非常復(fù)雜,有些情況可能尚未在互聯(lián)網(wǎng)上出現(xiàn),你沒有那種數(shù)據(jù),但你可能預(yù)測到這種情況可能會(huì)發(fā)生。這時(shí),你可以通過給大模型增加某些條件,如增加特定的提示詞(Prompt)或標(biāo)簽(Tag),讓它生成你可能尚未遇到的情景的數(shù)據(jù),從而預(yù)先進(jìn)行研判。

因此,實(shí)際上生成式人工智能在數(shù)據(jù)治理方面也具有非常重要的正面推動(dòng)作用,更不用說數(shù)據(jù)清理了。比如,我之前提到的自動(dòng)分類系統(tǒng),判斷哪些是人工翻譯的,哪些是機(jī)器翻譯的,哪些是人工編寫的,哪些是機(jī)器生成的,生成式人工智能在進(jìn)行這種判別方面的工作應(yīng)該比過去做得更好。

由于時(shí)間關(guān)系,我今天就講到這里,如果有不當(dāng)之處,請大家批評指正。謝謝大家!

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港