展會信息港展會大全

OpenAI CEO 在美國國會首秀:回應(yīng)對 AI 的一切質(zhì)疑,主動要求接受監(jiān)管!
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-18 10:19:34   瀏覽:5552次  

導(dǎo)讀:整理 |屠敏 出品 | CSDN(ID:CSDNnews) 從最初只有十來個(gè)人的小團(tuán)隊(duì),到如今的 300 人;從起步拿到 10 億美元啟動資金,到創(chuàng)造了估值約為 300 億美元的 AI 獨(dú)角獸神話,OpenAI 用 GPT 系列、Whisper、DALL-E 2 不僅打開了 AIGC 的新大門,也讓自己在 AI 領(lǐng)...

整理 |屠敏

出品 | CSDN(ID:CSDNnews)

從最初只有十來個(gè)人的小團(tuán)隊(duì),到如今的 300 人;從起步拿到 10 億美元啟動資金,到創(chuàng)造了估值約為 300 億美元的 AI 獨(dú)角獸“神話”,OpenAI 用 GPT 系列、Whisper、DALL-E 2 不僅打開了 AIGC 的新大門,也讓自己在 AI 領(lǐng)域站穩(wěn)了腳步。

然而,正所謂樹大招風(fēng),因?yàn)樵?AI法律法規(guī)、規(guī)范標(biāo)準(zhǔn)還不完善的情況下,技術(shù)先行引發(fā)了很多部門以及競爭者的關(guān)注。

5 月 16 日,OpenAI CEO Sam Altman、IBM 首席隱私與信任官 Christina Montgomery、紐約大學(xué)名譽(yù)教授 Gary Marcus 三人在美國參議院就各自公司與機(jī)構(gòu)制造的人工智能技術(shù)存在的潛在危險(xiǎn)進(jìn)行作證,唇槍舌戰(zhàn)。

好在與以往科技大佬站在聽證會上“腥風(fēng)血雨”的場景不同,Sam Altman 等人參加的這一場聽證會竟意外地“和諧”,甚至Sam Altman反向敦促立法者早日對 AI 實(shí)現(xiàn)監(jiān)管,為 OpenAI 的 GPT-4 等先進(jìn)人工智能系統(tǒng)的組織實(shí)施許可要求和其他法規(guī)。

此外,Sam Altman 在準(zhǔn)備的證詞中也進(jìn)一步解釋了外界對于 OpenAI、AI 大模型的部分爭議與潛在擔(dān)憂,回應(yīng)有關(guān) AI 研發(fā)與立場的疑問。

表明立場:關(guān)于 OpenAI 公司獨(dú)立性

OpenAI 是一個(gè)完全獨(dú)立的公司,AGI 技術(shù)專利由非營利組織管理。

其實(shí)自 OpenAI 爆火以來,其一直處于風(fēng)口浪尖,甚至此前馬斯克曾直言怒批,「OpenAI 閉源且逐利由微軟實(shí)際掌控」。

針對這一質(zhì)疑,馬斯克在證詞中再次聲明,創(chuàng)建于 2015 年的 OpenAl,旨在確保人工智能(AGl)惠及全人類。

Sam Altman 表示,OpenAl 內(nèi)部有一個(gè)不同尋常的結(jié)構(gòu),以確保它始終專注于這一長期使命:

首先,OpenAI 結(jié)構(gòu)中的主要實(shí)體是其非營利組織,它是一個(gè) 501(C)(3) 公益組織。

第二,OpenAI 的營利性業(yè)務(wù)受到利潤上限的限制,并在一個(gè)由非營利組織完全控制的子公司之下。

第三,因?yàn)槎聲菫榉菭I利組織服務(wù)的,所以每個(gè)董事必須履行他們的受托責(zé)任,以促進(jìn)其使命安全 AGI 能夠普惠眾人。雖然營利性子公司被允許賺取和分配利潤,但它必須服從這一使命,非營利組織的主要受益者是人類,而不是開放性投資者。

第四,董事會保持大多數(shù)人的獨(dú)立性。獨(dú)立董事不持有 OpenAl 的股權(quán)。

第五,投資者和員工的利潤是由具有約束力的法律承諾所限定的。非營利組織為人類的利益保留所有的剩余價(jià)值。

Sam Altman 稱,這種結(jié)構(gòu)使 OpenAI 能夠優(yōu)先考慮安全和有益的 AI 開發(fā),同時(shí)幫助其獲得必要的資本來開發(fā)越來越強(qiáng)大的 AI 模型。

例如,在今年 1 月份,微軟宣布對 OpenAl 進(jìn)行多年、數(shù)十億美元的投資,這是繼 2019 年和 2021 年的投資之后的又一次投資。這項(xiàng)投資為 OpenAl 提供了必要的資本和先進(jìn)的超級計(jì)算基礎(chǔ)設(shè)施,以開發(fā)、測試和改進(jìn)他們的技術(shù)。

微軟是 OpenAl 的一個(gè)重要投資者,OpenAI 重視他們與自家公司的價(jià)值觀和長期愿景的獨(dú)特結(jié)合,包括微軟對建立值得信賴和安全的 AI 系統(tǒng)和產(chǎn)品的共同承諾。

同時(shí)。OpenAl 仍然是一個(gè)完全獨(dú)立的公司,由 OpenAl 非營利組織管理。微軟在董事會中沒有席位,也不控制 OpenAl。此外。AGl 的技術(shù)專利明確地保留給非營利組織來管理。

報(bào)告進(jìn)展:未來 6 個(gè)月沒有訓(xùn)練 GPT-5 的計(jì)劃

在證詞中,Sam Altman 說道,“從根本上說,目前這一代的語言模型是大規(guī)模的統(tǒng)計(jì)預(yù)測機(jī)器--當(dāng)模型得到一個(gè)人的請求時(shí),它試圖預(yù)測一個(gè)可能的反應(yīng)。這些模型的操作類似于現(xiàn)代智能手機(jī)、電子郵件或文字處理軟件的自動完成功能,但規(guī)模更大、更復(fù)雜。利用這一技術(shù)的變種,Al 工具也能夠?qū)W習(xí)圖像和文本描述之間的統(tǒng)計(jì)關(guān)系,然后根據(jù)自然語言輸入生成新的圖像。”

截至目前,OpenAI 已經(jīng)發(fā)布了 GPT-2、GPT-3、ChatGPT、GPT-4、DALL-E 等多款產(chǎn)品。

與此同時(shí),Sam Altman 在聽證會上再次保證:未來六個(gè)月,OpenAI 沒有訓(xùn)練 GPT-5 的計(jì)劃。

只因?yàn),先要暫緩進(jìn)度,自愿改進(jìn)可能存在的問題。

坦言問題:AI 技術(shù)“可能會出錯(cuò)”

那么究竟存在什么問題?

根據(jù) Sam Altman 的說法,在發(fā)布每個(gè)新版本的模型之前,OpenAl 都會進(jìn)行廣泛的測試,讓外部專家參與反饋,利用人類反饋強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)改進(jìn)模型的行為,并通過安全和檢測系統(tǒng)檢測。

以最新發(fā)布的 GPT-4 為例,OpenAI 在評估、測試和改進(jìn)該系統(tǒng)環(huán)節(jié)累計(jì)花費(fèi)了 6 個(gè)月的時(shí)間,最后才對外公開。

其中,OpenAI 走的每一步,都制定了緩解措施。譬如對用于訓(xùn)練模型的數(shù)據(jù)進(jìn)行調(diào)整,即所謂的預(yù)訓(xùn)練階段。在預(yù)訓(xùn)練階段之后,OpenAI 塑造 GPT-4 行為的主要方法是讓人們對模型的反應(yīng)提供反饋,以幫助模型以更安全和更有用的方式作出反應(yīng)。另外,模型也會嘗試拒絕有害的請求,并在面對敏感請求時(shí)作出更適當(dāng)?shù)姆磻?yīng)。當(dāng)被要求生成不允許的內(nèi)容(如官方的使用政策所定義的)時(shí),GPT-4 有 99% 以上的時(shí)間拒絕這樣做。

不過,SamAltman 也坦言,「我們努力在部署前了解和預(yù)防風(fēng)險(xiǎn)。然而,我們無法預(yù)測技術(shù)的每一次都是有益使用、或潛在濫用。這在很大程度上是因?yàn)檫@些系統(tǒng)仍然是由人指揮的。

拒絕一刀切:暫停 AI 開發(fā)不現(xiàn)實(shí)

事實(shí)上,人為 AI 模型帶來了極大的不確定性。

因?yàn)檫@些潛在的問題,就在今年3 月,非營利性的 "生命的未來研究所 "(Future of Life Institute)發(fā)出一封

公開信

,強(qiáng)烈呼吁:暫停訓(xùn)練比 GPT-4 更強(qiáng)大的系統(tǒng),期限為六個(gè)月,理由是這些模型對社會和人類存在潛在風(fēng)險(xiǎn)。

該公開信指出,如果這種暫停不能迅速實(shí)施,政府應(yīng)該介入并制定暫停令。

其中圖靈獎(jiǎng)得主 Yoshua Bengio、伯克利計(jì)算機(jī)科學(xué)教授 Stuart Russell、特斯拉 CEO 埃隆馬斯克等數(shù)千名 AI 專家公開支持了這一封信。

在這場聽證會上,Altman 表示,迭代發(fā)布更好,因?yàn)?"去秘密建立一個(gè)超級強(qiáng)大的人工智能系統(tǒng),然后把它一下子扔到世界上,我認(rèn)為不會有好結(jié)果。"

"我們戰(zhàn)略的很大一部分是在這些系統(tǒng)相對較弱和極不完善的時(shí)候,想辦法讓人們對它們有經(jīng)驗(yàn)......并弄清楚我們需要做什么來使它更安全和更好," Altman 說道。

對此,參議院司法小組委員會主席 Richard Blumenthal 要求道,"應(yīng)該要求人工智能公司測試他們的系統(tǒng),披露已知的風(fēng)險(xiǎn),并允許獨(dú)立研究人員進(jìn)入。"

他說:"在有些地方,人工智能的風(fēng)險(xiǎn)是如此之大,以至于我們應(yīng)該施加限制,甚至禁止它們的使用,特別是當(dāng)涉及到為營利而進(jìn)行的商業(yè)侵犯隱私以及影響人們生活的決定時(shí)。"

給出建議:由政府出面,建立新監(jiān)管機(jī)構(gòu)

當(dāng)然,要說 Sam Altman 這一次能夠在美國國會上應(yīng)對自如,不僅僅是因?yàn)槠洹干缗!沟纳缃伙L(fēng)格,更是因?yàn)樗龊昧顺渥愕臏?zhǔn)備。

“我們認(rèn)為政府的監(jiān)管干預(yù)對于減輕日益強(qiáng)大的模型的風(fēng)險(xiǎn)至關(guān)重要,”Altman 率先分享了他的想法。

其次,在點(diǎn)名要與政府機(jī)構(gòu)合作之后,Sam Altman 迅速給出了三個(gè)合作方向:

首先,至關(guān)重要的是,AI 公司--特別是那些致力于最強(qiáng)大的模型的公司--要遵守一套適當(dāng)?shù)陌踩螅ㄔ诎l(fā)布和公布評估結(jié)果之前進(jìn)行內(nèi)部和外部測試。為了確保這一點(diǎn),美國政府應(yīng)該考慮對開發(fā)和發(fā)布超過關(guān)鍵能力門檻的 AI 模型進(jìn)行許可或注冊要求,以及對完全遵守這些要求的公司進(jìn)行獎(jiǎng)勵(lì)。

第二,AI 是一個(gè)復(fù)雜和快速發(fā)展的領(lǐng)域。AI 公司必須滿足的安全要求必須有一個(gè)足夠靈活的管理制度,以適應(yīng)新的技術(shù)發(fā)展。美國政府應(yīng)考慮促進(jìn)多利益相關(guān)方的合作,廣泛納入專家和組織的意見,以制定和定期更新適當(dāng)?shù)陌踩珮?biāo)準(zhǔn)、評估要求、披露做法以及需要許可或注冊的 AI 系統(tǒng)的外部驗(yàn)證機(jī)制。

第三,OpenAI 并不是在獨(dú)自開發(fā)這項(xiàng)技術(shù)。政策制定者必須考慮如何在全球范圍內(nèi)實(shí)施許可條例,并確保在 AI 安全方面的國際合作,包括審查潛在的政府間監(jiān)督機(jī)制和標(biāo)準(zhǔn)制定。

最后,Altman 表示,“現(xiàn)在是從事 Al 技術(shù)工作的一個(gè)重要時(shí)期。六個(gè)月前,沒有人聽說過 ChatGPT,F(xiàn)在,ChatGPT 是一個(gè)家喻戶曉的名字,人們正從它那里獲得重要的好處。我們也明白,人們理所當(dāng)然地對 Al 技術(shù)感到焦慮。我們非常認(rèn)真地對待這項(xiàng)技術(shù)的風(fēng)險(xiǎn),并將在未來繼續(xù)這樣做。我們相信,政府和行業(yè)能夠共同管理風(fēng)險(xiǎn),以便我們都能享受巨大的潛力。”

Altman 的立場無疑也表明,AI 大模型不能由某個(gè)企業(yè)、組織來主導(dǎo),而是要有合規(guī)的標(biāo)準(zhǔn)加以束縛,當(dāng)然,這也是國內(nèi)外 AI 發(fā)展都需要的。

參考:

https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf

https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港