展會信息港展會大全

OpenAI掌門人舌戰(zhàn)國會山:GPT-4只是個工具,它擅長完成任務(wù)而不是工作
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-18 10:19:24   瀏覽:4806次  

導(dǎo)讀:《AI未來指北》欄目由騰訊新聞推出,邀約全球業(yè)內(nèi)專家、創(chuàng)業(yè)者、投資人,探討AI領(lǐng)域的技術(shù)發(fā)展、商業(yè)模式、應(yīng)用場景、倫理及版權(quán)爭議。 作者: 城主 | 編輯: 騰訊新聞 郝博陽 劃重點: 國會聽證會主席: 現(xiàn)在讓我介紹一下證人。我們非常感謝你們能來這里。...

《AI未來指北》欄目由科技新聞推出,邀約全球業(yè)內(nèi)專家、創(chuàng)業(yè)者、投資人,探討AI領(lǐng)域的技術(shù)發(fā)展、商業(yè)模式、應(yīng)用場景、倫理及版權(quán)爭議。

作者: 城主 | 編輯: 科技新聞 郝博陽

劃重點:

國會聽證會主席:

現(xiàn)在讓我介紹一下證人。我們非常感謝你們能來這里。

Sam Altman是OpenAI的聯(lián)合創(chuàng)始人兼首席執(zhí)行官,OpenAI是負(fù)責(zé)ChatGPT和DALLE等人工智能研究和應(yīng)用的公司。Altman先生曾擔(dān)任Y Combinator創(chuàng)業(yè)加速器的總裁,從2014年到2019年。OpenAI成立于2015年。

Christina Montgomery是IBM的副總裁兼首席隱私和信任官,負(fù)責(zé)公司的全球隱私計劃、政策合規(guī)和戰(zhàn)略。她還擔(dān)任IBM人工智能倫理委員會和多樣性團隊的主席,負(fù)責(zé)人工智能和新興技術(shù)的治理。Christina在IBM擔(dān)任多種職務(wù),包括公司董事會的公司秘書。她是人工智能倫理和政府方面的全球領(lǐng)導(dǎo)者,同時還是美國商會人工智能委員會和美國國家人工智能咨詢委員會的成員,該委員會于2022年成立,為總統(tǒng)和國家人工智能倡議辦公室提供有關(guān)人工智能相關(guān)議題的建議。

Gary Marcus是人工智能領(lǐng)域的主要聲音,他是一位科學(xué)家、暢銷書作者和企業(yè)家,是Robust AI和Geometric AI的創(chuàng)始人(如果我沒記錯的話,它被Uber收購),他還是紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)的名譽教授。Marcus先生以對當(dāng)代人工智能的挑戰(zhàn)而聞名,他在幾十年前就預(yù)見到了許多當(dāng)前的局限,并在人類語言發(fā)展和認(rèn)知神經(jīng)科學(xué)方面進(jìn)行了研究。

感謝你們的出席。正如你們所知,我們司法委員會的習(xí)慣是在證人作證之前對他們進(jìn)行宣誓。請你們都站起來,舉起右手。你們發(fā)誓你們即將作證的內(nèi)容是真實的、全部的,沒有任何虛假,對此表示同意嗎?謝謝。

Altman先生,如果可以的話,我們將從您開始。

Sam:

謝謝。謝謝主席達(dá)赫爾、霍利排名委員會成員。非常感謝能有機會在這里向大家講話,談?wù)摯笮蜕窠?jīng)網(wǎng)絡(luò)。對我來說,能在此刻出席比我預(yù)期的還要光榮。我叫Sam Altman,我是OpenAI的首席執(zhí)行官。

OpenAI的成立是基于這樣的信念,人工智能有潛力改善我們生活的方方面面,但同時也會帶來嚴(yán)重的風(fēng)險,我們必須共同努力來管理這些風(fēng)險。我們在這里是因為人們熱愛這項技術(shù),我們認(rèn)為它可能是印刷機的時刻,我們必須共同努力使其成為現(xiàn)實。

OpenAI是一家非同尋常的公司,我們設(shè)立它就是因為人工智能是一項非同尋常的技術(shù)。我們受非營利組織的管理,我們的活動由我們的使命和章程驅(qū)動,我們致力于確保人工智能的利益廣泛分布,并最大限度地提高人工智能系統(tǒng)的安全性。我們正在努力開發(fā)一種工具,將來可以幫助我們發(fā)現(xiàn)新知識,解決人類面臨的最大挑戰(zhàn),如氣候變化和治愈癌癥。

我們現(xiàn)有的系統(tǒng)還不具備這些能力,但看到全球許多人已經(jīng)從這些系統(tǒng)中獲得了如此多的價值,這是非常令人滿意的。我們喜歡看到人們使用我們的工具來創(chuàng)造、學(xué)習(xí)、提高生產(chǎn)力,我們非常樂觀地認(rèn)為未來會有很多好的工作,現(xiàn)有的工作也能變得更好。我們也看到開發(fā)人員為改善生活所做的努力,例如,Be My Eyes利用我們GPT-4中的新型多模態(tài)技術(shù),幫助視障人士在環(huán)境中導(dǎo)航。

我們相信迄今部署的工具的好處遠(yuǎn)遠(yuǎn)超過風(fēng)險,但確保它們的安全對我們的工作至關(guān)重要,我們會付出巨大努力,在所有層面上確保安全內(nèi)置于我們的系統(tǒng)中。在發(fā)布任何新系統(tǒng)之前,OpenAI都會進(jìn)行廣泛的測試,與外部專家進(jìn)行詳細(xì)審查和獨立審核,改進(jìn)模型的行為,并實施強大的安全和監(jiān)測系統(tǒng)。在發(fā)布我們最新的模型GPT-4之前,我們花了六個多月進(jìn)行廣泛的評估、外部紅隊測試和危險能力測試。我們?yōu)槲覀內(nèi)〉玫倪M(jìn)展感到自豪,GPT-4比其他功能相似的廣泛部署模型更有可能作出有益和真實的回應(yīng),拒絕有害的請求。

然而,我們認(rèn)為政府的監(jiān)管干預(yù)將是至關(guān)重要的,例如,美國政府可以考慮對開發(fā)和發(fā)布超過一定能力門檻的人工智能模型實施許可和測試要求。在我的書面證詞中,我還提到了其他幾個領(lǐng)域,在這些領(lǐng)域,我相信像我們這樣的公司可以與政府合作,包括確保最強大的人工智能模型遵守一套安全要求,促進(jìn)制定和更新安全措施的過程,探索全球協(xié)作的機會。

正如你們提到的,我認(rèn)為公司在這方面也有責(zé)任,無論國會做什么,這是一個非凡的時刻,從事人工智能工作。但隨著這項技術(shù)的發(fā)展,我們理解到人們對它可能改變我們生活方式的擔(dān)憂,我們也有同樣的擔(dān)憂。但我們相信我們可以并且必須共同努力,識別和管理潛在的負(fù)面影響,以便我們都能享受巨大的好處。確保強大的人工智能以民主的價值觀為基礎(chǔ)的發(fā)展至關(guān)重要,這意味著美國的領(lǐng)導(dǎo)地位至關(guān)重要。我相信我們能夠應(yīng)對眼前的風(fēng)險,并真正利用這項技術(shù)的潛力,推動美國和全世界的經(jīng)濟增長。我期待著與大家共同應(yīng)對這個時刻,并回答你們的問題。

謝謝Altman先生。

主席:

我們將進(jìn)行7分鐘的提問環(huán)節(jié),我將首先提問。首先,我們今天在這里是因為我們確實面臨完美風(fēng)暴。我們中的一些人可能更傾向于將其比作瓷器店中的炸彈,而不是公牛。正如霍利參議員所指出的,這里有先例,不僅是原子武器時代,還有基因組項目和遺傳學(xué)研究,這導(dǎo)致了國際合作。我們想避免在社交媒體上犯下的過去錯誤,正如我在開場白中所指出的。

ChatGPT和所有的AI都會出錯,它可以成為令人信服的騙子,人們稱之為幻覺。這可能是司法委員會聽證會開場時無害的問題,在這種情況下,我的聲音被模仿,或不存在的研究論文被引用。但是,ChatGPT和Bard愿意回答有關(guān)生死大事的問題,例如藥物相互作用,這種錯誤可能造成深遠(yuǎn)的損害。

我對如何獲得關(guān)于這些模型的準(zhǔn)確性和可信度的可靠信息,以及如何創(chuàng)建獎勵更高準(zhǔn)確性的競爭和消費者披露感興趣。美國國家標(biāo)準(zhǔn)與技術(shù)研究院實際上已經(jīng)有了AI準(zhǔn)確性測試面部識別供應(yīng)商測試。它沒有解決面部識別的所有問題,但評分卡確實提供了關(guān)于這些系統(tǒng)的功能和缺陷的有用信息。因此,有關(guān)確保準(zhǔn)確性和完整性的模型的工作(是必要的)。

我的問題,Altman先生,我們應(yīng)該考慮獨立測試實驗室為評分卡和類似營養(yǎng)標(biāo)簽或等價的營養(yǎng)標(biāo)簽的包裝表明人們是否可以信任該內(nèi)容,它的成分是什么,輸入的垃圾可能是什么,因為它可能導(dǎo)致輸出的垃圾?

Sam:

是的,我認(rèn)為這是一個很好的主意。我認(rèn)為公司應(yīng)該在發(fā)布模型之前公布自己的測試結(jié)果,包括模型的弱點和優(yōu)勢。此外,獨立審計對此也非常重要。這些模型隨著時間的推移變得更加準(zhǔn)確。正如我們聲稱的那樣,這項技術(shù)還處于早期階段,它確實仍然會出錯。

我們發(fā)現(xiàn)用戶相當(dāng)有思考,了解模型可能出現(xiàn)的錯誤,需要對模型的說法負(fù)責(zé),他們?nèi)ゲ樽C它。我擔(dān)心隨著模型變得越來越好,用戶可以逐漸減少自己對它的判斷思維過程。但是,我認(rèn)為在這種對話中,用戶的能力往往比我們給予他們的信用更強。

大量披露對模型的不準(zhǔn)確性很重要,如果你使用過ChatGPT,你會發(fā)現(xiàn)這一點。我期待一個公司公布有關(guān)模型行為和不準(zhǔn)確之處的信息的世界,獨立機構(gòu)或公司也提供這些信息。我認(rèn)為這是一個很好的主意。

主席:

在我的開場白中,我暗示了就業(yè)問題和對就業(yè)的經(jīng)濟影響。

事實上,我要引用一下,你說過:“超級人工智能的發(fā)展可能是人類持續(xù)存在的最大威脅。”你可能考慮到了對就業(yè)的影響,這實際上是我長期以來最大的噩夢。

讓我問你,你最大的噩夢是什么,你是否也有這種擔(dān)憂?

Sam:

與所有的技術(shù)革命一樣,我預(yù)期會對就業(yè)產(chǎn)生重大影響,但具體影響如何很難預(yù)測。如果我們回顧前一段技術(shù)革命的另一面,談?wù)摯嬖谟诹硪幻嫔系墓ぷ,你可以去讀當(dāng)時人們的書,這很難。我相信在這之后會有更多的工作,今天的工作會變得更好。

首先,我認(rèn)為重要的是要理解和思考GPT-4是一個工具,而不是一種生物,這很容易混淆。這是人們有很大控制權(quán)的工具,以及如何使用它。其次,GPT-4和其他類似的系統(tǒng)擅長完成任務(wù),而不是工作。因此,你已經(jīng)看到有人使用GPT-4以更高效的方式完成工作,這是通過幫助他們完成任務(wù)實現(xiàn)的。

GPT-4將完全自動化一些工作,它將創(chuàng)建我們認(rèn)為更好的新工作。這是一再發(fā)生的事情。

我對技術(shù)歷史的理解就是一場長期的技術(shù)革命,而不是許多不同的技術(shù)革命聚集在一起。這一直在繼續(xù)發(fā)生。隨著我們的生活質(zhì)量提高,和我們創(chuàng)造的機器和工具可以幫助我們過上更美好的生活,我們所做的工作的標(biāo)準(zhǔn)也在提高;我們的人類能力和我們花時間追求的事情,也在追求更雄心勃勃和更滿意的項目。

所以,這將對就業(yè)產(chǎn)生影響,我們試圖非常清楚地表達(dá)這一點。我認(rèn)為這需要行業(yè)和政府的合作,但主要是政府采取行動來弄清楚我們?nèi)绾螠p輕這種影響。但是,我對未來工作的前景非常樂觀。謝謝。

Marcus教授:剛才說到了就業(yè),但是我覺得就業(yè)可能不是Sam最擔(dān)心的事兒,他最擔(dān)心的事情還沒說。

主席:謝謝。Altman先生,您是否想對此作出回應(yīng)?

Sam:

是的,我們盡量明確表示這里的風(fēng)險大校

我認(rèn)為工作和就業(yè)以及我們將如何利用我們的時間真的很重要。

我同意當(dāng)我們擁有非常強大的系統(tǒng)時,格局將發(fā)生變化。我認(rèn)為我只是更樂觀地認(rèn)為我們極其有創(chuàng)造力,我們會找到利用更好的工具做新事情的方法。這種情況會持續(xù)發(fā)生。

我最擔(dān)心的是我們會造成重大傷害,我們這個領(lǐng)域,這項技術(shù),這個行業(yè)會對世界造成重大傷害。

我認(rèn)為這可能以很多不同的方式發(fā)生。這就是我們創(chuàng)立公司的原因。這是我今天來這里的主要原因以及我們過去來這里的原因。我們能花些時間與你在一起。

我認(rèn)為如果這項技術(shù)出錯,它會出錯得相當(dāng)厲害。我們想明確表達(dá)這一點。我們想與政府合作防止這種情況發(fā)生。但我們盡量實事求是地看待負(fù)面情景以及我們必須做的工作來緩解這種情況。

謝謝。

主席:

我們的希望是行業(yè)余下部分會遵循你和IBM蒙哥馬利女士今天來的榜樣。像你私下做的那樣與我們見面并幫助指導(dǎo)我們將要做的事情。

這樣我們可以瞄準(zhǔn)危害并避免意外后果的好處。謝謝。

Hawley議員。

Hawley:

再次感謝主席。感謝證人出席。

Altman先生,我認(rèn)為你在圣路易斯長大,如果我沒記錯的話。很高興看到這里有一個偉大的密蘇里人,謝謝。

我特別要在記錄中強調(diào)這一點。密蘇里是一個偉大的地方。這是今天聽證會的重點。也許我們這就可以停了,主席先生。

讓我問一下你,Altman先生,我會從你開始,我只是想說,我在這里的問題是為了更好地理解,并請你們所有人幫助我們更好地理解這種生成式AI,特別是大型語言模型的能力以及其意義。我正在看一篇名為《基于媒體食譜訓(xùn)練的大型語言模型可以預(yù)測公眾輿論》的論文,這是大約一個月前發(fā)布的,作者是Chew Andreas、Anselaberry和Roy,

他們的結(jié)論是,大型語言模型確實可以預(yù)測公眾輿論,他們對此進(jìn)行了建模和解釋。他們最終得出結(jié)論,AI系統(tǒng)可以通過適應(yīng)預(yù)訓(xùn)練的語言模型對亞群體特定的媒體飲食進(jìn)行預(yù)測,這意味著您可以向模型輸入特定的媒體信息,它可以以非常準(zhǔn)確的方式預(yù)測人們的觀點。

我想將其放在選舉的背景下考慮。

如果這些大型語言模型甚至現(xiàn)在就可以基于我們輸入的信息相當(dāng)準(zhǔn)確地預(yù)測公眾輿論,在你甚至還沒有向公眾提問這些問題,會發(fā)生什么情況?當(dāng)公司實體、政府實體、競選活動或外國行動者利用這些調(diào)查信息、對公眾輿論的預(yù)測進(jìn)行精確的調(diào)整策略,以引發(fā)特定的行為反應(yīng)時,我是指我們在大約3年前的這個委員會上的證詞,關(guān)于谷歌搜索對選民在選舉中的影響,尤其是對未決選民在選舉最后幾天可能從谷歌搜索獲取信息的影響,以及谷歌搜索的排名和返回的文章對未決選民產(chǎn)生的巨大影響,這當(dāng)然是數(shù)量級更大、意義更大、指向性更強的情況。

Altman先生,也許你可以幫助我理解一下這其中的一些意義,我們是否應(yīng)該擔(dān)心能夠預(yù)測調(diào)查意見的大型語言模型,然后幫助組織和實體調(diào)整策略以引發(fā)選民的行為反應(yīng)對于我們的選舉的影響,我們應(yīng)該擔(dān)心這個問題嗎?

Sam:

謝謝霍利議員的問題,這是我最關(guān)注的一個領(lǐng)域。

這種模型的更普遍的能力,即操縱、說服、提供一對一的交互式虛假信息,我認(rèn)為這是你所說的更廣泛的問題。但考慮到明年我們將面臨選舉,而這些模型正在變得越來越好,我認(rèn)為這還是一個令人擔(dān)憂的重要領(lǐng)域。

我認(rèn)為有很多公司可以自愿采用的政策,我很愿意討論一下我們在這方面的做法。我認(rèn)為在這個問題上進(jìn)行一些監(jiān)管是相當(dāng)明智的。

有人之前提到了一個我們非常贊同的事情,人們需要知道他們是否在與AI交談,他們正在查看的內(nèi)容是否可能是由AI生成的,我認(rèn)為這是一個很好的做法,可以明確這一點。

我認(rèn)為我們還需要關(guān)于公司提供模型時所期望的披露內(nèi)容的規(guī)則和指南,這些模型可能具有您所談到的這種能力。所以我對此感到緊張,但我認(rèn)為人們能夠相當(dāng)快速地適應(yīng)。

當(dāng)很久以前出現(xiàn)Photoshop時,人們在一段時間內(nèi)確實被Photoshop的圖像所愚弄,然后很快就發(fā)展出了認(rèn)識到圖像可能是經(jīng)過Photoshop處理的意識,這將是一個加強版的情況,而且互動性能夠非常強,能夠真正地模擬和預(yù)測人類,就像你所提到的那樣。

我認(rèn)為這將需要企業(yè)的正確做法,監(jiān)管和公眾教育的結(jié)合。

Hawley:

關(guān)于訓(xùn)練使用個人數(shù)據(jù)的人工智能系統(tǒng),您擔(dān)心什么............這種數(shù)據(jù),例如,社交媒體公司的主要平臺,谷歌、Meta等公司定期收集的所有數(shù)據(jù)?

我們委員會已經(jīng)討論了這一點一年了。 但是,公司擁有每個人海量的個人數(shù)據(jù)。

一個使用那些個人數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng),它比我們自己更了解我們每個人,也知道關(guān)于人類行為、人類語言交互的數(shù)十億數(shù)據(jù)點。

難道我們不會認(rèn)為一個人工智能系統(tǒng)極其擅長確定什么會吸引人類的注意力,什么會保持個人的注意力嗎?

目前,所有這些平臺上都在進(jìn)行注意力之爭,點擊之爭,所以他們可以賺錢。

我想象這些人工智能模型會加強這場注意力之爭,我們現(xiàn)在有的技術(shù)將允許前所未有的個人目標(biāo)定位。

人工智能將準(zhǔn)確地知道Sam Altman會感興趣的內(nèi)容,準(zhǔn)確地知道Josh Holly會感興趣的內(nèi)容,將能夠引起我們的注意力,然后引發(fā)我們的反應(yīng),這是我們以前無法想象的。

我們應(yīng)該擔(dān)心這對其商業(yè)應(yīng)用、貨幣應(yīng)用以及Altman先生可能產(chǎn)生的操縱有什么影響嗎?

Sam:

是的,我們應(yīng)該擔(dān)心這一點。

清楚地說,OpenAI不會。我們不是,你知道,我們的商業(yè)模式不是............所以我們沒有試圖建立用戶配置文件,我們沒有試圖讓他們使用更多。實際上,如果他們使用得更少,我們會很高興,因為我們沒有足夠的GPU。

但我認(rèn)為其他公司已經(jīng)開始并且未來肯定會使用人工智能模型來創(chuàng)建定制廣告,根據(jù)用戶喜歡預(yù)測。我認(rèn)為這在許多方面已經(jīng)在發(fā)生。

Duben:

這是歷史性的聽證會,我無法回憶起我們曾邀請代表大公司或私營部門實體的人來到我們面前,并懇請我們對他們進(jìn)行監(jiān)管。事實上,參議院的許多人將使經(jīng)濟繁榮的職業(yè)生涯建立在相反的基礎(chǔ)上,如果政府遠(yuǎn)離,經(jīng)濟將蓬勃發(fā)展。

而我今天聽到的消息卻是“在我再次創(chuàng)新之前阻止我”。我只是好奇我們?nèi)绾螌崿F(xiàn)這一點。

如我在開場白中提到的,我們在230條(美國于1996年頒布的法律,第 230 條保護提供商和個人免于因他人在線發(fā)布的非法內(nèi)容而承擔(dān)重大法律責(zé)任。)中學(xué)到了一些東西。我們決定通過230條基本上會免除這個行業(yè)一段時間的責(zé)任,讓它成長。

Altman先生,今年早些時候在播客中,您同意主持人的說法,認(rèn)為230條不適用于生成性人工智能,開發(fā)者像OpenAI不應(yīng)該有權(quán)對其產(chǎn)品造成的損害免于全部責(zé)任。那么,我們從230條中學(xué)到了什么適用于您在人工智能方面的情況?

Sam:

謝謝參議員的提問。我還不確定這里的正確答案是什么。我很樂意與您合作來解決這個問題。我確實認(rèn)為對一項全新的技術(shù),我們需要一個新的框架。

像我們這樣的公司肯定要為我們發(fā)布在世界上的工具承擔(dān)很大責(zé)任,但工具用戶也要如此,以及那些將建立在他們和最終消費者之間的企業(yè)。我們?nèi)绾谓⒁豁椮?zé)任框架至關(guān)重要。我們很樂意一起工作。

Duben:

我要強調(diào)的一點是這樣的,當(dāng)涉及到在線平臺時,政府的傾向是遠(yuǎn)離。這是一個新的行業(yè),不要過度監(jiān)管,事實上給予他們一些呼吸空間,看看會發(fā)生什么。我不確定我對在線平臺的結(jié)果感到滿意,以及它們造成的危害和我們在這個委員會中看到的問題,如兒童剝削、網(wǎng)絡(luò)欺凌、在線藥品銷售等。我不想再重復(fù)相同的錯誤。

而我聽到的來自私營部門的相反建議是,進(jìn)入這個領(lǐng)域,建立一些責(zé)任標(biāo)準(zhǔn)和精確的監(jiān)管。

對IBM這樣的大公司來說,向政府委員會表示,“請對我們進(jìn)行監(jiān)管”,這似乎是前所未有的。

您能解釋一下過去和現(xiàn)在的思維差異嗎?(先問了IBM的同學(xué))

Sam:

我想簡短地回答參議員的問題。我支持Marcus先生的說法,認(rèn)為美國應(yīng)該在這里發(fā)揮領(lǐng)導(dǎo)作用并率先采取行動。但要起作用,我們確實需要一些全球性的東西,正如您提到的,這可以在任何地方發(fā)生。

這樣聽起來天真地呼吁是有先例的,我們之前通過《信息技術(shù)協(xié)定》做到過,我們討論過為其他技術(shù)做同樣的事情。鑒于制造這些模型所需的芯片供應(yīng)鏈、有限數(shù)量的競爭GPU和美國對這些公司的影響力,我認(rèn)為有方法可以使美國設(shè)定一些國際標(biāo)準(zhǔn),其他國家需要與之合作和參與,這些標(biāo)準(zhǔn)實際上是可行的。盡管表面上看起來像一個不切實際的想法,我認(rèn)為這將有益于世界。

Duben:

謝謝主席。

主席:

謝謝德比參議員。事實上,我認(rèn)為我們將聽到更多關(guān)于歐洲正在做什么的消息。歐洲議會已經(jīng)在采取人工智能法案行動。在社交媒體方面,歐洲領(lǐng)先于我們。我認(rèn)為,您的觀點非常中肯。

讓我轉(zhuǎn)向Blackburn參議員。

Blackburn:

謝謝主席,謝謝各位今天來到這里。

我在chatGPT帳戶中輸入了“國會應(yīng)該監(jiān)管人工智能chatGPT嗎?”,它給我列出了4個正面因素,4個消極因素,并說最后的決定取決于國會,值得慎重考慮。

所以,在這方面,它是一個非常平衡的回答。

我最近訪問了我代表田納西州的納什維爾技術(shù)理事會。當(dāng)然,那里有來自醫(yī)療保艦金融服務(wù)、物流和教育機構(gòu)的人。他們擔(dān)心人工智能正在發(fā)生的事情,以及它對他們公司的利用。Montgomery女士,與您類似,他們有醫(yī)療保健人員正在研究疾病分析,他們正在研究預(yù)測診斷,這如何改善患者的結(jié)果。

物流行業(yè)正在研究如何節(jié)省時間和金錢,提高效率。

金融服務(wù)業(yè)表示,這如何與量子計算機、區(qū)塊鏈搭配使用,我們?nèi)绾问褂眠@些技術(shù)。

但主席先生,我們與他們討論時,一直出現(xiàn)的一個問題是,正如Marcus教授所說,歐盟和其他實體在這方面領(lǐng)先于我們,但我們從未建立聯(lián)邦層面的數(shù)據(jù)隱私或數(shù)據(jù)安全性的先例。這是我們需要解決的問題。

這將要求商業(yè)委員會和司法委員會決定如何向前發(fā)展,以便人們擁有自己的虛擬信息。

Altman先生,我很高興上周看到OpenAI模型不會使用消費者數(shù)據(jù)進(jìn)行訓(xùn)練。我認(rèn)為這一點很重要。如果我們進(jìn)行第二輪辯論,我有一系列關(guān)于數(shù)據(jù)安全和隱私的問題要問您。

我認(rèn)為,讓人們控制自己在這些環(huán)境中的虛擬信息和信息至關(guān)重要。

我想問您關(guān)于音樂和內(nèi)容創(chuàng)作的問題,因為我們有許多作曲家和藝術(shù)家,我認(rèn)為我們擁有全球最優(yōu)秀的創(chuàng)意團隊。在田納西州,他們應(yīng)該有權(quán)決定是否使用其受版權(quán)保護的歌曲和圖像來訓(xùn)練這些模型。

我擔(dān)心OpenAI的Jukebox,它提供一些加思布魯克斯風(fēng)格的重新演繹,這表明OpenAI使用加思布魯克斯的歌曲進(jìn)行了訓(xùn)練。

這個周末,我說“給我寫一首聽起來像加思布魯克斯的歌”,它給了我一首不同版本的《Simple Man》。有趣的是,它會這樣做。但是,您使用了這些受版權(quán)保護的歌曲、MIDI文件和聲音技術(shù)進(jìn)行訓(xùn)練。

那么,在您做這些事情的過程中,誰擁有由人工智能生成的材料的權(quán)利?使用您的技術(shù),我能否重做一首歌,插入我喜歡的藝術(shù)家的內(nèi)容,然后擁有那首歌的創(chuàng)作權(quán)?

Sam:

謝謝參議員。這是一個我們非常感興趣的領(lǐng)域。首先,我要說的是,我們認(rèn)為創(chuàng)作者應(yīng)該對他們的創(chuàng)作如何被使用有控制權(quán)。其次,我認(rèn)為,隨著這項新技術(shù)的出現(xiàn),我們需要找到新的方法,創(chuàng)作者可以成功,活躍,我樂觀地認(rèn)為這會帶來新的機遇。

Blackburn:

那么,讓我問你,你如何補償藝術(shù)家?

Sam:

這正是我要說的。

Blackburn:

好的。

Sam:

我們現(xiàn)在正與藝術(shù)家合作,視覺藝術(shù)家,音樂家,以確定人們需要什么。不幸的是,有很多不同的意見。到時候,我們會......

Blackburn:

讓我問你,你是否會模仿Sound Exchange,它在電臺領(lǐng)域發(fā)揮了作用。

Sam:

我不太熟悉Sound Exchange,我很抱歉。

Blackburn:

好的,你后面有團隊 待會回到我這里(說這個),這是一個第三方實體。

Sam:

好的。

Blackburn:

讓我們討論一下,讓我轉(zhuǎn)移話題。你可以承諾,就像您對消費者數(shù)據(jù)所做的那樣,不要使用藝術(shù)家和作曲家的受版權(quán)保護作品或在首先獲得他們同意之前使用他們的聲音和肖像來訓(xùn)練聊天機器人、OpenAI的Jukebox或其他人工智能模型嗎?

Sam:

首先,Jukebox不是我們提供的產(chǎn)品。那是一項研究發(fā)布,但它不是像聊天機器人或Dolly一樣。

Blackburn:

是的,但我們經(jīng)歷過Nasper。

Sam:

是的,

Blackburn:

在數(shù)字分發(fā)時代,那真的讓許多藝術(shù)家損失了很多金錢。

Sam:

哦,我理解,當(dāng)然。我不知道Jukebox的具體數(shù)字,作為一項研究發(fā)布,我可以跟進(jìn)您的辦公室,但Jukebox并不是得到很多關(guān)注或使用的東西。它是為了顯示某些可能性而發(fā)布的。

Blackburn:

好的。

達(dá)賓參議員剛才說過,您知道,我認(rèn)為這是一個公平的警告,如果我們不從一開始就參與進(jìn)來,而您已經(jīng)走了很長一段路,但如果我們不采取行動,這將超出您的控制范圍。

那么,您是否正在與版權(quán)辦公室合作?您是否正在考慮在生成人工智能中保護內(nèi)容生成者和創(chuàng)作者的權(quán)益?

Sam:

是的,我們絕對正在與之配合。再次重申我之前的觀點,我們認(rèn)為內(nèi)容創(chuàng)作者和內(nèi)容所有者需要從這項技術(shù)中獲益。確切的經(jīng)濟模式是什么,我們還在與藝術(shù)家和內(nèi)容所有者討論,以確定他們需要什么。

我認(rèn)為有很多種方式可以實現(xiàn)這一點,但不管法律是什么,正確的做法是確保人們從這項新技術(shù)中獲得重大的益處。我們相信它真的會帶來這些好處,但內(nèi)容所有者、形象和個人完全應(yīng)該有權(quán)控制它們的使用方式,并從中獲益。

Blackburn:

好的,關(guān)于隱私問題,你們計劃如何考慮通過你們的AI應(yīng)用收集聲音和其他用戶特定數(shù)據(jù)的問題,比如那些受版權(quán)保護的東西。如果我可以輸入“寫一首聽起來像加思布魯克斯的歌”,然后它采用了現(xiàn)有歌曲的部分,那么藝術(shù)家就必須得到相應(yīng)的補償,因為如果是在廣播中播放,那么就會有相應(yīng)的補償;如果是在流媒體平臺上播放,也會有相應(yīng)的補償。

所以,如果你們要這樣做,你們的政策是什么,以確保你們考慮到了這一點,保護個人的隱私權(quán)和他們對數(shù)據(jù)和創(chuàng)作作品的安全性。

Sam:

關(guān)于這個問題,我有幾點想法。首先,我們認(rèn)為人們應(yīng)該能夠說:“我不想讓我的個人數(shù)據(jù)用于訓(xùn)練。”

BlackBurn:

我認(rèn)為這是正確的。這需要制定一個全國性的隱私法律,我們這里的一些人正在努力達(dá)成一項我們可以使用的協(xié)議。

Sam:

是的,我認(rèn)為強有力的隱私法律是對的。

Blackburn:

我的時間到了,謝謝。

Klobuchar:

謝謝布萊克本議員的回應(yīng)。謝謝大家,感謝主席先生。謝謝你們的到來。謝謝大家,布萊克本議員。謝謝大家,克洛沃議員。非常感謝,主席先生。布萊克本議員,我非常喜歡納什維爾,喜歡田納西州,喜歡你們的音樂。但是我要說,我使用過ChatGPT,并詢問過有史以來最偉大的創(chuàng)作歌手是誰,其中前三名中有兩位來自明尼蘇達(dá)州。所以那會是普林斯和鮑勃迪倫。

好吧,好的,讓我們繼續(xù)。(其他人:AI不會改變這一點,笑),你在這里看到了。

好,說正經(jīng)的。我和我的團隊,在我作為規(guī)則委員會主席的角色中,在領(lǐng)導(dǎo)許多選舉法案方面,我們剛剛提出了一項由紐約的伊芙克拉克代表在眾議院提出的法案,我、布克和貝內(nèi)特也參與了其中,關(guān)于政治廣告的事情。但這只是冰山一角,你們了解這一點,你們和霍利參議員等人討論過這個問題,關(guān)于圖像的問題,以及我對于第230條的看法是,我們不能讓人們編造虛假信息,然后毫無后果地消失。

但我要重點關(guān)注我在規(guī)則委員會上的一項工作,那就是選舉虛假信息。我剛剛讓GPT在推特上發(fā)布了一條關(guān)于明尼蘇達(dá)州布魯明頓市的投票地點的推文,說那個投票地點排隊人數(shù)眾多,那是阿頓信義教堂,或者我們現(xiàn)在應(yīng)該去哪里。盡管現(xiàn)在沒有選舉,但是草案的答復(fù)是完全虛假的“去123號埃爾姆街吧”。

所以你可以想象我在這方面的擔(dān)憂,選舉即將到來,初選也即將到來,我們將會出現(xiàn)各種各樣的虛假信息,我只是想知道你們計劃采取什么措施。我知道我們不得不很快采取一些行動,不僅僅針對候選人的形象,還有關(guān)于實際選舉地點和選舉規(guī)則的虛假信息。

Sam:

謝謝參議員。

我們在選舉方面的影響非常關(guān)注。我認(rèn)為這是一個希望整個行業(yè)和政府能夠快速合作的領(lǐng)域。有很多方法可以解決這個問題,我將談?wù)勎覀冋谧龅囊恍┦虑椤?strong>但在此之前,我認(rèn)為用社交媒體的框架來思考是很誘人的,但這不是社交媒體,這是不同的。所以我們需要的應(yīng)對措施也是不同的。你知道這是一個用戶用來幫助生成比以前更高效的內(nèi)容的工具,他們可以改變它,他們可以測試它的準(zhǔn)確性,如果他們不喜歡,他們可以得到另一個版本,但它仍然會通過社交媒體或其他方式傳播。或者像ChatGPT一樣,是一個單人體驗,你只是在使用它,所以我認(rèn)為在思考該做什么時,這一點很重要。

有很多事情我們可以做,也正在做,我們有一些拒絕生成的原則,我們也有一些重要的政策,而且我們還有重要的監(jiān)測機制,可以檢測到某人在生成大量這樣的推文,即使生成一個推文是可以的。

Klobuchar:

當(dāng)然,還會有其他平臺,如果他們都散布假的選舉信息,我就覺得以前與俄羅斯干預(yù)等所發(fā)生的事情只是冰山一角,其中一些假應(yīng)用程序。這是第一點。

第二點是對知識產(chǎn)權(quán)的影響。Blackburn參議員在歌曲權(quán)利方面提出了一些意見,我對此也深表關(guān)切。但新聞內(nèi)容方面,Kennedy參議員和我提出了一項真的相當(dāng)簡單的法案,該法案簡單地允許新聞組織豁免,能夠與Google和Facebook等進(jìn)行磋商。微軟支持該法案,但基本上與他們磋商以獲得更好的價格,能夠不具有一定的杠桿作用。其他國家正在這樣做,像澳大利亞等。

所以我的問題是,當(dāng)我們已經(jīng)有西北大學(xué)的一項研究預(yù)測,在未來25年內(nèi),美國報紙的三分之一左右將消失,除非開始補償從電影到書籍,當(dāng)然也包括新聞內(nèi)容,否則我們將失去任何現(xiàn)實的內(nèi)容生產(chǎn)者。所以我希望聽到您對此的看法。當(dāng)然,版權(quán)有豁免的規(guī)定第230條,但我認(rèn)為要求小報社一直起訴實在不是答案,他們無法跟上。

Sam:

我希望像我們正在創(chuàng)建的這樣的工具可以幫助新聞組織做得更好。我認(rèn)為擁有充滿活力的全國媒體至關(guān)重要。讓我們稱之為互聯(lián)網(wǎng)的第一輪(信息源)并不夸張。

Klobuchar:

我們這里討論的就是當(dāng)?shù)貓蟮,你的高中,市政廳的丑聞,那種事情。當(dāng)然他們就是實際上狀況最糟的小電臺和廣播。但您是否理解如果他們得不到補償,這可能會在當(dāng)?shù)匦侣剝?nèi)容方面成指數(shù)級惡化,因為他們需要的就是為他們的內(nèi)容獲得補償,而不是被竊齲

Sam:

是的,再一次,我們的模型,您知道,GPT 4的當(dāng)前版本在2021年結(jié)束了訓(xùn)練,這不是找到最新新聞的好方法,我不認(rèn)為這是一個能夠很好鏈接出去的服務(wù),盡管可能通過我們的插件是可能的。

如果有我們能做的事情來幫助當(dāng)?shù)匦侣,我們?dāng)然愿意。再提一次,我認(rèn)為這至關(guān)重要。

Graham:

Altman先生,謝謝您的到來。您的公司沒有聲稱第230條適用于您創(chuàng)建的工具。

Sam:

是的,我們聲稱我的意思是我們需要共同努力找到一個全新的方法。我不認(rèn)為第230條甚至是正確的框架。

Graham:

那么,根據(jù)現(xiàn)有的法律,如果我受到您創(chuàng)建的此工具的傷害,我可以起訴您嗎?

Sam:

這超出了我的法律知識范圍。

Graham:

您曾經(jīng)被起訴過嗎?

Sam:

不是因為這個,不。

Graham:

你沒有被起訴過, 那您公司整體上曾被起訴過嗎?

Sam:

是的,我們以前被起訴過。

Graham:

好的,為什么?

Sam:

我們以前確實受到過起訴,像任何公司一樣,多半是一些毫無根據(jù)的事情。

Graham:

但是我的同事提到的那些人工智能的例子,它們可能真的會毀掉我們的生活,我們是否可以找到創(chuàng)造這個工具的公司,起訴他們?

Sam:

是的,我認(rèn)為公司應(yīng)該負(fù)起明確的責(zé)任。

Graham:

但你沒有聲稱任何法律保護,比如230條款適用于你的行業(yè),對嗎?

Sam:

不,我不這么認(rèn)為。我們沒有說任何事情。

Graham:

對于消費者來說,有三種經(jīng)過時間考驗的保護消費者的方式,對任何產(chǎn)品都適用,即法定計劃(這里不存在),法律制度(可能適用,但不適用于社交媒體),以及機構(gòu);氐紿olly參議員的問題,核彈籠罩在人類頭頂,但核電可能是應(yīng)對氣候變化的解決方案之一。所以我要確保的就是你不能隨隨便便建一個核電站,“嘿,鮑勃,你今天想做什么?我們?nèi)ソㄒ粋核電站吧。”你有一個核監(jiān)管委員會來監(jiān)管如何建立電站和許可。

Altman先生,您同意這些您創(chuàng)建的工具應(yīng)該獲得許可證嗎?

Sam:

是的,我們一直在呼吁這一點,獲得許可證是最簡單的方式。

Graham:

您同意我認(rèn)為最簡單和最有效的方法是設(shè)立一個機構(gòu)來監(jiān)督您的工作,這個機構(gòu)應(yīng)該比國會更靈活和更精明,這應(yīng)該很容易建立,對嗎?

Sam:

是的,我們對此非常支持。

Graham:

對我來說非常啟發(fā)。Altman先生,您為什么如此愿意設(shè)立一個機構(gòu)?

Sam:

參議員,我們已經(jīng)明確表達(dá)了我們認(rèn)為的優(yōu)點。我認(rèn)為從用戶的角度可以看出他們對此有多么享受和獲得了多大價值。但我們也明確了缺點,這就是為什么我們認(rèn)為我們需要一個機構(gòu)。

Graham:

這是生活中使用的一項重要工具。

Sam:

這是一種重大的新技術(shù)。

Graham:

如果我們建立了這項重要的新技術(shù)。如果你做了一條梯子,梯子不起作用,你可以找到制作梯子的人,但總得有一些制作梯子的標(biāo)準(zhǔn)。

Sam:

所以這就是為什么我們同意你的觀點的原因。

Graham:

沒錯。我認(rèn)為您正朝著正確的方向前進(jìn)。所以,這里是我作為委員會成員2%的價值,我們需要授權(quán)一個機構(gòu)對AI公司發(fā)出許可證并可以收回。如果您實際上可以被停業(yè),這還是對成為做正確事情的激勵嗎?很明顯,這應(yīng)該是機構(gòu)可以做的部分內(nèi)容。您還同意中國正在進(jìn)行人工智能研究,對嗎?

Sam:

是的。

Graham:

這個世界性組織目前還不存在,也許會出現(xiàn)。但如果您不解決與中國相關(guān)的部分,您永遠(yuǎn)不會完全解決這個問題,您同意嗎?

Sam:

嗯,這就是為什么我認(rèn)為不一定需要一個世界性組織,但必須有某種標(biāo)準(zhǔn),這里有很多選擇,必須有某種控制標(biāo)準(zhǔn)產(chǎn)生全球影響。

Graham:

因為其他人確實在快速進(jìn)行軍事應(yīng)用。人工智能如何改變戰(zhàn)爭?您有1分鐘。

Sam:

好吧,這是一個1分鐘內(nèi)難以回答的問題。這遠(yuǎn)超出我的專業(yè)知識范圍。

Graham:

但我舉個例子,無人機可以讓您編程,將其連接到無人機的核心部件,它可以飛出去,飛過這個目標(biāo),將導(dǎo)彈投射在路上行駛的汽車上,有人在觀察這個過程。人工智能是否可以創(chuàng)造一種情況,無人機自己可以選擇目標(biāo)?

Sam:

我認(rèn)為我們不應(yīng)該允許這種情況發(fā)生。

Graham:

好吧,它能做到嗎?

Sam:

當(dāng)然,這是可以做到的。

Graham:

謝謝。

Coons:

謝謝。謝謝格雷厄姆參議員。格雷厄姆參議員,謝謝馬克朗,克里斯 墨菲感謝您召開這次聽證會,密切配合來推出這一令人信服的證人小組,對這一革命性技術(shù)開始一系列聽證會。

我們認(rèn)識到生成AI技術(shù)的巨大潛力和較大風(fēng)險。我們知道這些模型可以使我們更有效率,幫助我們學(xué)習(xí)新技能,開創(chuàng)全新的創(chuàng)造力領(lǐng)域。但我們也知道,生成AI可以權(quán)威地提供極不正確的信息,它可以產(chǎn)生幻覺,這通常被描述為模擬親人,它可以鼓勵自我破壞行為,它可以影響公眾意見和選舉結(jié)果。

到目前為止,國會在負(fù)責(zé)任地頒布對社交媒體公司有意義的監(jiān)管方面失敗得很慘。由此產(chǎn)生的嚴(yán)重傷害我們并不完全理解?寺寰S沙參議員在質(zhì)詢中提到的兩黨法案將打開社交媒體平臺的基礎(chǔ)算法,我們甚至難以做到這一點,去理解底層技術(shù),然后轉(zhuǎn)向負(fù)責(zé)任的監(jiān)管。

我們不能像對社交媒體那樣遲來負(fù)責(zé)任監(jiān)管生成AI,因為積極和消極后果將超過社交媒體數(shù)量級。

所以,讓我提出幾個問題,旨在了解我們?nèi)绾卧u估風(fēng)險,國際監(jiān)管的作用以及這如何影響人工智能。

Altman先生,我很欣賞您在證詞中提出OpenAI如何通過迭代部署過程評估模型的安全性。然而,這一過程中隱含的基本問題是您如何決定模型是否足夠安全以部署,是否足夠安全以建立并隨后釋放到社會上。

我理解防止生成AI模型提供有害內(nèi)容的一種方式是讓人類識別該內(nèi)容,然后訓(xùn)練算法避免它。另一種方法稱為憲法AI,它為模型提供一組價值觀或原則來指導(dǎo)其決策。

將這些規(guī)則賦予模型而不是試圖要求或迫使模型在所有可能的有害內(nèi)容上進(jìn)行訓(xùn)練,這會更有效嗎?

Sam:

謝謝參議員,這是一個很好的問題。我喜歡用談?wù)摓槭裁次覀円渴饋肀磉_(dá)它。

顯然,原因是因為它有許多好處,人們正在使用它進(jìn)行各種美好的事情并獲得很大價值,這讓我們很高興。但是,我們這樣做的一個很大原因是我們相信迭代部署和給我們的機構(gòu)以及你們時間來理解這項技術(shù),找到其局限性和好處,我們需要圍繞它的法規(guī),使其安全所需的內(nèi)容,這真的很重要。

在暗地里構(gòu)建一個超強大的人工智能系統(tǒng),然后一下子把它投放到世界上,我認(rèn)為這不會奏效。我們戰(zhàn)略的一大部分是,當(dāng)這些系統(tǒng)仍然相對較弱和深深不完美時,找到方法讓人們對它們有經(jīng)驗,與現(xiàn)實接觸,并且找出我們需要做什么才能使其變得更安全和更好。

這是我在新技術(shù)和產(chǎn)品的歷史上看到的唯一方法,以達(dá)到一個非常好的結(jié)果。所以,與世界的這種互動是非常重要的。

當(dāng)然,在我們推出某樣?xùn)|西之前,它需要達(dá)到1個安全標(biāo)準(zhǔn),再次,我們在GPT-4訓(xùn)練完成后花了超過6個月的時間對各種不同的事情進(jìn)行檢查,并決定在推出之前要達(dá)到的標(biāo)準(zhǔn)。試圖找到我們知道的危害并如何解決這些危害。令我們欣慰的是,即使我們最大的批評者也檢查了GPT-4并說,OpenAI在這方面取得了巨大進(jìn)步。

Coons:

能否簡要談?wù)剳椃P褪欠裰档?

Sam:

我正要談這個問題。

Coons:

抱歉。

Sam:

沒關(guān)系。是的,我認(rèn)為預(yù)先給模型賦予價值觀是非常重要的一步。RLHF是做同樣事情的另一種方法。不管是通過合成數(shù)據(jù)還是人工生成的數(shù)據(jù),您都在說這些是價值觀,這就是我希望您反映的,或者這就是社會將允許的一切范圍。然后在其中,您作為用戶選擇這里的價值系統(tǒng)或那里的價值系統(tǒng)。我們認(rèn)為這非常重要。有多種技術(shù)方法,但我們需要為政策制定者和世界各地提供工具,說明這些價值觀并實施它們。

Kennedy:

謝謝你們都來了。允許我與你們分享3個假設(shè),希望你們暫時假定這些假設(shè)是真實的。

假設(shè)1:國會的許多成員不理解人工智能。

假設(shè)2:缺乏理解可能不會阻止國會全情投入,試圖以可能損害這項技術(shù)的方式監(jiān)管這項技術(shù)。

假設(shè)3:我希望你們假定,人工智能界可能存在一些瘋狂的人,無意中或故意使用人工智能來殺死我們所有人,并在我們死亡的過程中傷害我們。

假設(shè)所有這些都是真實的,請用簡明的英語告訴我2-3項改革或監(jiān)管措施(如果有的話),如果您是國王或女王,您會實施哪些措施。

我會聽取Altman先生的意見。Altman先生,這是您的機會。

Sam:

謝謝參議員。

首先,我會成立一個新的機構(gòu),對超過一定規(guī)模的功能進(jìn)行許可,并可以收回許可證,確保遵守安全標(biāo)準(zhǔn)。

其次,我會制定一套安全標(biāo)準(zhǔn),重點關(guān)注您在第三個假設(shè)中提出的危險能力評估。我們以前用過的一個例子是檢查看模型是否可以自我復(fù)制和自行滲透到外部。我們可以向您的辦公室提供其他我們認(rèn)為重要的長列表。但是,模型部署到世界之前必須通過的具體測試。

第三,我會要求獨立審計,而不僅僅是公司或機構(gòu),還有能夠說模型是否符合這些已聲明的安全閾值和這些問題的百分比的專家的表現(xiàn)。X或Y。

Kennedy:

您能否將這些信息發(fā)送給我?

Sam:

我們會的。

Kennedy:

如果我們頒布這些規(guī)則來管理這些規(guī)則,您是否愿意參與?

Sam:

我喜歡我現(xiàn)在的工作。

Kennedy:

很好,是否還有人愿意?

Sam:

我們很樂意向您推薦那些人。

Kennedy:

好的。

你掙很多錢,是嗎?

Sam:

我沒有。我的薪資夠我支付醫(yī)療保險。我在OpenAI沒有股權(quán)。

Kennedy:

真的嗎?你需要一名律師。

Sam:

我需要什么?

Kennedy:

你需要一名律師或代理人。

Sam:

我正在做這件事僅僅是因為我喜歡它。

Kennedy:

謝謝主席。

主席:

謝謝肯尼迪參議員。下一位參議員赫羅諾。

Hrono:

謝謝主席。

Hirono:

很明顯,人工智能確實改變了游戲規(guī)則,我們需要正確規(guī)定這種工具。

因為我的員工可能使用GPT 4,也可能使用其他實體,要求創(chuàng)作我最喜歡的樂隊BTS最喜歡的歌曲,一首他們會唱的歌或其他人的歌曲,但兩位藝術(shù)家都沒有參與創(chuàng)作,聽起來像一首真正的歌曲,所以AI可以做很多事。

我們也問AI是否可以創(chuàng)作一段演講,談?wù)撟罡叻ㄔ旱呐袥Q和Dobbs案及其造成的混亂,使用我的聲音,我那種聲音,創(chuàng)作一篇非常棒的演講稿。

這幾乎讓我想,我需要我的員工做什么。

所以......別擔(dān)心(回頭看工作人員)

Sam:

別擔(dān)心您后面緊張的笑聲。

Hirono:

他們的工作很安全,但可以做的事情太多了。

您提到的讓我感興趣的一件事是您說GPT 4可以拒絕有害的請求,所以您一定在思考,如果我可以這么說的話,您的系統(tǒng)如何拒絕有害的請求。您認(rèn)為什么是有害的請求?您可以簡短地說一下,好嗎?

Sam:

我會舉幾個例子,一個是暴力內(nèi)容,另一個是鼓勵自我傷害的內(nèi)容,還有成人內(nèi)容。我們不認(rèn)為成人內(nèi)容本質(zhì)上有害,但有的內(nèi)容我們無法足夠可靠地區(qū)分,所以我們拒絕全部。

Hirono:

所以這些是一些更加明顯的有害信息種類。但是在選舉背景下,例如,我看到一張前總統(tǒng)特朗普被我們的APD逮捕的照片,這走得很遠(yuǎn),我不知道這算不算有害內(nèi)容。我看到過我們?nèi)魏我粋人都有各種各樣的聲明可以被放出來,可能不會達(dá)到您說的有害內(nèi)容的程度,但事實如此。

所以,您兩位中有兩位說我們應(yīng)該有許可證計劃。我現(xiàn)在無法想象我們能夠創(chuàng)造什么樣的許可證計劃,來基本上規(guī)范這個改變游戲規(guī)則的工具的廣闊性。

那么你們是否在考慮類似于聯(lián)邦貿(mào)易委員會(FTC)或聯(lián)邦通信委員會(FCC)這樣的制度,你們兩位對于潛在的許可制度設(shè)想有何看法,以提供我們所需要的保障,以保護我們的國家免受有害內(nèi)容的侵害?

Sam:

談到您說的第一部分,除了“這些內(nèi)容是否應(yīng)該生成”之外,我認(rèn)為其他重要的事情也很重要。

您提到的那張圖片是生成的。我認(rèn)為一個很好的政策是說生成的圖像需要在所有上下文中明確說明它們是生成的, 然后我們還會有那張圖片,但至少需要人們說這是一張生成的圖片。

Hirono:

好吧,您不需要整個許可證計劃就能做到這一點。

Sam:

我認(rèn)為許可證計劃的意義不在于針對這些模型今天能夠做的事情,您不需要新設(shè)立的許可機構(gòu)來做這件事。但隨著我們前進(jìn),您知道這可能需要很長時間,我不確定,隨著我們向人工通用智能前進(jìn),以及它將產(chǎn)生的影響, 還有這項技術(shù)的力量,我認(rèn)為我們需要像對待其他非常強大的技術(shù)一樣嚴(yán)肅對待它,這是我個人認(rèn)為我們需要這樣的計劃的原因。

Hirono:

我同意,這很有意義。

Padilla:

我一直在人工智能使用政府委員會和國家安全委員會之間來回工作,目前后者正在舉行人工智能在政府中的使用聽證會。所以今天是人工智能日,或者至少看起來像是。

現(xiàn)在,對于在家觀看的人來說,如果您直到最近才了解生成AI工具的出現(xiàn),這一領(lǐng)域的發(fā)展可能會突然感覺像發(fā)生了。但事實是,主席先生,事實并非如此。人工智能并不新鮮,不管是對政府、企業(yè)、公眾還是一般公眾來說。事實上,公眾經(jīng)常使用人工智能。僅舉一個例子,任何擁有智能手機的人,您的設(shè)備上的許多功能都利用人工智能,包括發(fā)短信時的建議回復(fù),甚至電子郵件中的自動更正功能,包括但不限于電子郵件和文本應(yīng)用中的拼寫。

坦率地說,我很興奮地探討如何促進(jìn)有利于社會的積極人工智能創(chuàng)新,同時解決目前工具開發(fā)和使用中已知的一些危害和偏見。

隨著語言模型變得越來越普遍,我想確保專注于確保不同人口統(tǒng)計群體獲得公平的待遇。

我理解,在評估和減輕公平性危害方面進(jìn)行的大多數(shù)研究都集中在英語語言上,而非英語語言獲得的關(guān)注和投資相對較少。我們以前見過這個問題。我會告訴您為什么提出這個問題。

例如,社交媒體公司沒有充分投資于他們的非英語內(nèi)容審核工具和資源,無論是英語空間用戶還是非英語空間用戶。我提出這個問題不僅出于對非美國空間用戶的關(guān)注,也出于如此多的美國用戶在交流中更喜歡使用英語以外的語言。所以,我深切擔(dān)心人工智能工具和應(yīng)用程序會重蹈社交媒體在多語言方面的失敗。

問題:Altman先生和Montgomery女士,OpenAI和IBM如何確保他們的大語言模型具有語言和文化包容性?

Sam:

我們認(rèn)為這真的很重要。一個例子是,我們與冰島政府合作,冰島語言的使用者人數(shù)少于許多在互聯(lián)網(wǎng)上代表性很高的語言,以確保他們的語言被納入我們的模型。我們進(jìn)行了許多類似的討論,我期待與資源較少的語言建立許多類似的合作伙伴關(guān)系,以將它們納入我們的模型。

GPT 4與我們以前的模型不同,以前的模型在英語很好但在其他語言不太好,現(xiàn)在在大量語言中表現(xiàn)得非常好。您可以相當(dāng)遠(yuǎn)的使用排名靠后的語言,依據(jù)講者人數(shù),仍然能獲得很好的性能。但對于這些非常小的語言,我們對定制合作伙伴關(guān)系感到興奮,以將該語言納入我們的模型運行。

您提出的關(guān)于價值觀和確保文化被納入的問題部分,我們同樣專注于此,我們很高興與擁有特定數(shù)據(jù)集的人合作,努力收集來自世界各地的代表性價值觀,為系統(tǒng)可以做什么畫出寬廣的界限。

Padilla:

我也理解您關(guān)于這些系統(tǒng)的好處的說法,希望確保盡可能多的人群獲得這些好處。我認(rèn)為,這些系統(tǒng)將對許多人產(chǎn)生積極影響,特別是歷史上和技術(shù)中的欠代表群體,世界各地技術(shù)資源較少的人。這項技術(shù)似乎可以很大地提高這些人的生活水平。雖然我的問題具體涉及語言包容性,但很高興達(dá)成更廣泛的多樣性和包容性承諾的共識。

我會再給出幾個原因來說明為什么這一點如此重要。最大的參與者在這個領(lǐng)域可以負(fù)擔(dān)大量的數(shù)據(jù)、計算能力以及開發(fā)復(fù)雜人工智能系統(tǒng)所需的財務(wù)資源。但在這個領(lǐng)域,從工作力量的角度來看,我們沒有看到與美國人口統(tǒng)計相稱的種族和性別多樣性。如果我們沒有深思熟慮,我們會面臨繼續(xù)加深社會中已有的偏見和不平等的風(fēng)險。在這方面還有很多工作要做。

Ossoff:

一如既往,明智和英浚感謝小組成員加入我們。感謝小組委員會領(lǐng)導(dǎo)開放給所有委員會成員。如果我們要考慮監(jiān)管框架,我們必須定義要監(jiān)管的內(nèi)容。所以,Altman先生,任何此類法律都必須包含一節(jié)來定義監(jiān)管活動、技術(shù)、工具和產(chǎn)品的范圍。能就此發(fā)表看法嗎?

Sam:

是的,謝謝詢問參議員。我認(rèn)為這點非常重要。我認(rèn)為這里有非常不同的層次,我認(rèn)為任何新的方法或新法律都不應(yīng)阻止發(fā)生在較小公司、開源模型和從事較小規(guī)模工作的研究人員的創(chuàng)新。

嗯,這是美國科技生態(tài)系統(tǒng)的美妙部分,我們不希望減緩其發(fā)展。在那里可能仍然需要一些規(guī)則,但我認(rèn)為我們可以在需要進(jìn)行非常嚴(yán)格許可的系統(tǒng)上劃定一條線。

最簡單的方法是,我不確定是否是最佳方法,但最簡單的方法是根據(jù)所需計算量來劃定。因此,我們可以定義一個計算量的閾值,它可能需要不斷改變,可能會隨著我們發(fā)現(xiàn)更高效的算法而增加或減少。這個閾值可以定義為超過某個計算量的系統(tǒng)位于許可制度的范疇內(nèi)。我更喜歡的方法(雖然難以實現(xiàn),但更準(zhǔn)確)是定義一些能力的門檻,并表示能夠執(zhí)行X、Y和Z等操作的模型現(xiàn)在處于許可制度之下,但能力較弱的模型則可以根據(jù)不同框架繼續(xù)使用。我們不希望阻止我們的開源社區(qū)、個人研究人員和新創(chuàng)企業(yè)的發(fā)展。

Ossoff:

請盡可能簡潔地陳述您建議我們在這個定義目的上考慮哪些能力。

Sam:

我希望通過進(jìn)一步與您的辦公室溝通來提出一個更加深入的觀點,

Ossoff:

這樣比較穩(wěn)妥。

Sam:

哦,或許提出一些建議。

Ossoff:

理解您只是回應(yīng)問題,而不是制定法律。

Sam:

在此精神的基礎(chǔ)上,我認(rèn)為能夠說服、操縱和影響人們的行為或信念的模型將是一個很好的門檻。我認(rèn)為能夠幫助創(chuàng)建新型生物制劑的模型也將是一個很好的門檻,諸如此類。

Ossoff:

接下來,我想談?wù)劶夹g(shù)的預(yù)測能力,我們將不得不考慮與此相關(guān)的許多非常復(fù)雜的憲法問題。在擁有龐大數(shù)據(jù)集的情況下,這種技術(shù)能以多大的準(zhǔn)確性預(yù)測未來的人類行為,尤其是在個人層面上,是正確的。

Sam:

我認(rèn)為我們無法確定這個問題的確切答案。

Ossoff:

但我們可以假設(shè)它至少會在某種程度上對個人產(chǎn)生一定的影響。那么,我們可能會遇到這樣的情況,例如執(zhí)法機構(gòu)部署這種技術(shù),尋求法官的同意來執(zhí)行。警察可能會提出一份令狀給法官,以獲取授權(quán)。請告訴我您對這個問題的思考方式。

Sam:

是的,我認(rèn)為非常重要的一點是我們繼續(xù)認(rèn)識到這些都是人類使用的工具,用于做出人類判斷,我們不要剝奪人類判斷的權(quán)力。例如,我不認(rèn)為人們應(yīng)該基于AI系統(tǒng)的輸出進(jìn)行起訴。

Ossoff:

我們目前還沒有全國性的隱私法,而歐洲已經(jīng)出臺了一項法律,效果不一。您認(rèn)為我們需要這樣的法律嗎?

Sam:

我認(rèn)為這將是很好的。

Ossoff:

那么,您認(rèn)為這樣的法律應(yīng)具備什么樣的特點或目的,您認(rèn)為最有意義?

Sam:

基于我的經(jīng)驗,再次強調(diào)這超出了我的專業(yè)領(lǐng)域,我認(rèn)為有很多很多的隱私專家可以就法律的需求發(fā)表意見。

我仍然希望(至少)用戶能夠選擇退出,不讓類似我們公司或社交媒體公司這樣的公司使用他們的數(shù)據(jù),而且刪除自己的數(shù)據(jù)應(yīng)該很容易,這些都是我認(rèn)為最重要的。從我作為AI公司負(fù)責(zé)人的角度來看,如果您不希望您的數(shù)據(jù)用于訓(xùn)練這些系統(tǒng),您有權(quán)這樣做。

Ossoff:

因此,讓我們思考如何實際實現(xiàn)這一點。

我理解您的工具和類似的工具的輸入之一將是從公共網(wǎng)絡(luò)上“抓取”數(shù)據(jù),這是一種低成本的收集信息的方式,而且我們的信息已經(jīng)存在于公共網(wǎng)絡(luò)上。那么,對訪問、使用或分析此類數(shù)據(jù)的限制如何在實際中實施?

Sam:

我在談?wù)撘恍┞杂胁煌臇|西,即用戶自己生成的數(shù)據(jù),他們提出的問題,他們輸入的內(nèi)容等等。我們以此進(jìn)行訓(xùn)練,即使我們不訓(xùn)練于此,模型仍然可以鏈接到公共網(wǎng)絡(luò)上的數(shù)據(jù)。所以我提到的并不是我所指的內(nèi)容。我認(rèn)為您知道有很多方式可以從公共網(wǎng)絡(luò)上刪除您的數(shù)據(jù),但當(dāng)然,具備網(wǎng)絡(luò)瀏覽功能的模型將能夠搜索網(wǎng)絡(luò)并鏈接到其中。

Ossoff:

當(dāng)您考慮實施安全或監(jiān)管制度來限制此類軟件并減少風(fēng)險時,您認(rèn)為聯(lián)邦政府會制定法律,以禁止某些功能本身在潛在情況下執(zhí)行代碼?還是僅在實際執(zhí)行時,執(zhí)行某些功能呢?

Sam:

我認(rèn)為兩者都有。我相信以防御為主。我認(rèn)為對部署模型的能力應(yīng)該有限制,然后在實際執(zhí)行時再對其進(jìn)行限制。

Ossoff:

關(guān)于孩子們?nèi)绾问褂媚漠a(chǎn)品,您是如何考慮的呢?

Sam:

必須是青少年或者獲得父母許可的13歲及以上用戶才能使用產(chǎn)品。

但我們知道人們總是會繞過這些保護措施,所以我們盡量設(shè)計一個安全的產(chǎn)品。如果只有成年人使用,我們可以允許某些決策,但我們不會在產(chǎn)品中允許這些,因為我們知道孩子們會使用。對于教育領(lǐng)域這類廣泛應(yīng)用的系統(tǒng),我們希望能意識到這一點。

Ossoff:

我認(rèn)為Blumenthal參議員(主席)對這個問題進(jìn)行了廣泛調(diào)查,我們多次看到,這個領(lǐng)域的公司的收入依賴于使用量和屏幕時間的強度,它們?yōu)榱俗畲蟪潭鹊靥岣哂脩舻膮⑴c度,包括孩子們的參與度,而設(shè)計這些系統(tǒng),結(jié)果卻產(chǎn)生了許多不良后果。

我謙虛地建議您盡早解決您產(chǎn)品對兒童的安全性問題。

否則,我認(rèn)為Blumenthal參議員、Hawley參議員和其他小組委員會的成員可能會對侵害兒童的技術(shù)部署持非常嚴(yán)厲的態(tài)度。

Sam:

我們完全同意,我認(rèn)為兒童的安全性非常重要。不過,時間有限,如果我可以回應(yīng)一下的話,主席同意的話。

(請講。)

首先,我認(rèn)為我們試圖設(shè)計的系統(tǒng)并不是為了最大化參與度。事實上,我們非常缺乏GPU,用戶使用我們的產(chǎn)品越少越好。我們不是以廣告為基礎(chǔ)的模型,我們不是試圖讓用戶越來越多地使用。我認(rèn)為這與廣告支持的社交媒體的模型不同。

其次,這些系統(tǒng)確實具備影響的能力,無論是明顯的還是微妙的。我認(rèn)為這對于兒童的安全性尤為重要,但它也會影響到我們所有人。我們將采取一些措施來確保這一點,不論是否有監(jiān)管,但我認(rèn)為監(jiān)管方法將對此有所幫助,包括對這些系統(tǒng)的價值觀進(jìn)行限制,并要求這些系統(tǒng)對可能產(chǎn)生影響的問題進(jìn)行回應(yīng)。所以我們很愿意與您合作,對此的重要性我們非常認(rèn)可。

Ossoff:

謝謝您。主席先生。

Booker:

我想說明的是,喬治亞州的參議員也非常英俊和聰明。(旁:我同意~ 不對此發(fā)表異議~,好的。。)

感謝兩位,這是本次聽證會中最好的一次,這真是你們兩位的能力和機遇的展示,所以非常感謝你們。我想首先從宏觀的角度開始,然后再逐漸具體化。

Sam,你說得很對,科技一直在快速發(fā)展,很多人都在談?wù)摫O(jiān)管的問題,我拿汽車作為例子。汽車是一項非常了不起的技術(shù),當(dāng)時紐約市不知道如何處理馬車,出現(xiàn)了危機,然后汽車出現(xiàn)解決了這個問題。

但與此同時,我們每天都有成千上萬的人在公路上喪生,我們還面臨著排放危機等問題,因此成立了多個聯(lián)邦機構(gòu)專門負(fù)責(zé)汽車監(jiān)管。所以,如果國會什么都不做,這顯然是不可接受的。

我非常感謝Walden先生和你進(jìn)行了一些交流,你們提出了一項旨在監(jiān)管這一領(lǐng)域的法案,而社交媒體方面我們沒有這樣做,我認(rèn)為這是非常破壞性的,也允許了許多會造成傷害的事情發(fā)生。所以問題是,你們都提到了很多我的同事們所關(guān)心的監(jiān)管問題,

我想問問你們,你們認(rèn)為監(jiān)管應(yīng)該是什么樣的形式,你們提到了高風(fēng)險使用方式的定義,我們并不完全了解所有這些,我們無法預(yù)見未來的發(fā)展。

你們呼吁不設(shè)立一個機構(gòu),因為你們不想減慢事情的發(fā)展,而是希望在現(xiàn)有的基礎(chǔ)上繼續(xù)發(fā)展,但你們可以想象我們最終可以通過兩種方式來實現(xiàn),就像我們在汽車領(lǐng)域有環(huán)保署、國家高速公路交通安全管理局等多個聯(lián)邦機構(gòu)來進(jìn)行監(jiān)管一樣。

你可以想象某種具體的東西,正如馬庫斯先生指出的那樣,一個敏捷的機構(gòu)可以進(jìn)行監(jiān)測和其他事情,你可以想象需要這種機構(gòu)。當(dāng)然毫無疑問。

剩下的時間里,我只是向你提出一個很快的問題。首先,你(的公司)有點獨角獸, 你能解釋為什么是非營利組織嗎?換句話說,你不是在尋找必需品,你甚至限制了風(fēng)險投資。

只是讓大家很快理解(這個事情)。

Sam:

我們最初是非營利組織。真正致力于這項技術(shù)如何建設(shè)。當(dāng)時,像人工智能這樣的東西還遠(yuǎn)在公眾理解的范圍之外,現(xiàn)在這已經(jīng)發(fā)生了很大變化。

我們當(dāng)時并不知道規(guī)模有多重要,但我們確實知道我們想要建設(shè)這項技術(shù),以人類的最大利益為出發(fā)點。我們相信這項技術(shù)如果發(fā)展的方式我們想要的話,如果我們能做馬庫斯教授提到的一些事情,可以真正深刻地改變世界,我們想成為實現(xiàn)積極改變的最大力量。

Booker:

我打斷你,我認(rèn)為這些都很好,我希望更多的記錄可以公開。我的問題的第二部分也是如此。我發(fā)現(xiàn)這非常迷人。

但是你是否會為投資者的回報尋求收入模式,或者你是否會做廣告或類似的東西?

Sam:

我不會說永遠(yuǎn)不會。我不這樣認(rèn)為,我認(rèn)為可能會有人想要我們提供服務(wù),而且沒有其他收入模式可以行得通。但我真的喜歡訂閱制的模式,我們讓API開發(fā)者付費,我們有人工智能 chatbot............

Booker:

我可以跳躍一下嗎?

Sam:

當(dāng)然。

Booker:

很快。我對這個領(lǐng)域最大的擔(dān)憂之一是,我已經(jīng)看到的web 2到web 3的大規(guī)模企業(yè)集中現(xiàn)象。看到現(xiàn)在僅有的幾家公司控制和影響著我們很多人的生活,真的令人恐懼。

這些公司越來越大和強大。我看到OpenAI背后是微軟, Anthropic背后是谷歌,谷歌還有自己的內(nèi)部產(chǎn)品,你知道的,Bard。

所以我真的很擔(dān)心這個問題,我想知道如果Sam你可以給我一個快速的確認(rèn),你是否擔(dān)心這個領(lǐng)域的企業(yè)集中度以及它可能產(chǎn)生的影響和相關(guān)風(fēng)險,可能與人工智能和市場集中度相關(guān)的風(fēng)險,你也可以回答這個問題。

Sam:

我認(rèn)為會有許多人開發(fā)模型,開源社區(qū)所發(fā)生的事情令人驚訝,但只會有少數(shù)提供商能夠制造真正威脅的模型。

嗯,我認(rèn)為這是有利和危險并存的,就像我們正在討論AI的所有危險一樣,我們真正需要密切關(guān)注的人數(shù)是絕對要保持謹(jǐn)慎的,以便掌握絕對的能力的最前沿。

這方面有一些好處,但同時也需要足夠的監(jiān)管。

我想補充一點,我認(rèn)為非常重要的一點是,這些系統(tǒng)對齊到什么樣的價值觀、界限由整個社會,由政府來設(shè)定,所以創(chuàng)建這個數(shù)據(jù)集,對齊這個數(shù)據(jù)集可能是一個AI憲法,無論是什么形式,這必須來自社會的廣泛參與。

Booker:

非常感謝,主席先生,我的時間用完了。

Welch:

這是一次非常重要的聽證會,參議員都以注意力不集中而聞名,但我參加了整個聽證會,并且每一分鐘都非常享受。您在美國擁有較長的注意力時間,這是您的巨大功勞。證人和這個議題的興趣都是如此之大。

有一些問題我們還沒有討論到,但是有一個結(jié)論,也是我認(rèn)為最重要的問題,國會將不得不回答這個問題。

首先,你們在這里是因為AI是一種非常了不起的新技術(shù),每個人都說它可以發(fā)揮變革的作用,就像印刷術(shù)一樣。其次,我們真的不知道將會發(fā)生什么,但你們都表達(dá)了擔(dān)心,如果沒有規(guī)則的話,壞人會做什么和將會做什么。第三,作為在眾議院任職的成員,現(xiàn)在在參議院,我得出結(jié)論,國會無法跟上技術(shù)的速度。社交媒體和AI方面都表達(dá)了一些關(guān)注,這涉及到基本的隱私權(quán)、偏見問題、知識產(chǎn)權(quán)、信息的傳播等問題,對我來說,這是最大的威脅,因為這關(guān)系到我們的自治能力的核心。

還有經(jīng)濟變革,可能是深遠(yuǎn)的,還有安全方面的擔(dān)憂。我認(rèn)為我們絕對需要一個機構(gòu),機構(gòu)的參與范圍需要我們來確定;但我認(rèn)為,除非我們有一個能夠應(yīng)對社交媒體和AI等問題的機構(gòu),否則我們就沒有太多的防御措施來對抗不好的東西,而壞的東西將會出現(xiàn)。

去年,我在眾議院和貝內(nèi)特參議員發(fā)起了數(shù)字委員會法案,今年我們將重新提出這個法案。

我想問的兩個問題中的一個,你們中的三個人(指出席聽證會的三個AI方面的代表)中有兩個人說你們認(rèn)為我們確實需要一個獨立的委員會,你們中的三個人中有兩個人說你們認(rèn)為我們確實需要一個獨立的機構(gòu),你們認(rèn)為一個機構(gòu)可能存在的一些危險是什么,我們需要謹(jǐn)慎對待,以確保隱私、偏見、知識產(chǎn)權(quán)、虛假信息等方面的目標(biāo)能夠得到實現(xiàn)?

Sam:

第一,我認(rèn)為美國必須繼續(xù)領(lǐng)導(dǎo),這在美國發(fā)生了,我為此感到非常自豪。

Welch:

對的,這就是為什么我更有信心,如果我們有一個機構(gòu)參與國際討論,最終我們希望有適合我們的規(guī)則,這可能是一個更有效的方法。

Sam:

我個人認(rèn)為兩者都可以兼顧,我認(rèn)為在這個問題上有一個全球視角非常重要。因為這種技術(shù)將影響到美國和我們所有的人,無論它在哪里開發(fā)。但我認(rèn)為我們希望美國領(lǐng)導(dǎo),我們希望我們能夠,我認(rèn)為你們對此也提到了,就是你們不希望減慢美國產(chǎn)業(yè)的速度,以至于中國或其他國家取得更快的進(jìn)展。

另一個風(fēng)險是,我認(rèn)為應(yīng)該對我們施加監(jiān)管壓力,對谷歌等公司施加監(jiān)管壓力,對其他少數(shù)幾家公司施加監(jiān)管壓力,我們不希望阻礙小型初創(chuàng)企業(yè),我們不希望阻礙開源社區(qū),我們?nèi)匀恍枰麄冏袷匾恍┮?guī)定,他們?nèi)匀豢梢允褂幂^小的模型造成巨大的傷害。但在這個領(lǐng)域留出空間,為新的想法和新的公司,以及獨立的研究人員去做他們的工作,而不是給像我們這樣的公司帶來監(jiān)管負(fù)擔(dān)。我們可以,但一個較小的公司卻無法承擔(dān)(這種負(fù)擔(dān))。我認(rèn)為這是另一個風(fēng)險,這顯然是監(jiān)管發(fā)展的一個方向。

主席(Blumenthal):

還有一些問題我們還沒有完全討論到,其中之一是壟斷化的危險,市場的主導(dǎo)地位排除了新的競爭,并抑制或阻止創(chuàng)新和發(fā)明,我們在社交媒體和一些舊行業(yè)中都看到了這種情況,航空公司、汽車等,整合限制了競爭,因此,我認(rèn)為我們需要關(guān)注反壟斷的一個老領(lǐng)域,已經(jīng)有一個多世紀(jì)的歷史,但現(xiàn)在仍然無法應(yīng)對我們目前的挑戰(zhàn),當(dāng)然,我們需要意識到規(guī)則可能會讓大公司變得更大,排除創(chuàng)新和競爭,像你們現(xiàn)在所代表的這個行業(yè)那樣,我們還沒有涉及到國家安全的問題,這對國家安全有巨大的影響,我作為國防委員會的成員,在這個問題上受到過多次的機密簡報,我們的對手對這個國家構(gòu)成的威脅很現(xiàn)實也很緊迫,我們今天不會討論這些問題,但我們確實需要處理這些問題,而且我希望我們在這個委員會上能夠處理這些問題,

關(guān)于新機構(gòu)的問題,你知道我已經(jīng)做了一段時間的這項工作,我在康涅狄格州擔(dān)任20年的總檢察長,我是一名聯(lián)邦檢察官,我大部分職業(yè)生涯都是執(zhí)法工作,我會告訴你一件事,你可以創(chuàng)造出10個新機構(gòu),但如果你不給他們資源,我不只是說金錢,我說的是科學(xué)專家,你們這些人會把他們圍繞在指尖,不僅僅是模型或生成式AI可以圍繞著他們打轉(zhuǎn),而是你們公司里的科學(xué)家。

對于每一個成功案例,你可以想到五個失敗案例,這對于FDA來說是對的,對于國際能源機構(gòu)來說是對的,對于證券交易委員會來說是對的,對于整個字母表中的政府機構(gòu)來說都是對的,我希望我們在這里的經(jīng)驗會不同,但是潘多拉的盒子需要的不僅僅是言辭或概念,我們需要進(jìn)行一些真正困難的決策,就像蒙哥馬利(IBM代表)女士所暗示的那樣,我們要制定適應(yīng)風(fēng)險的規(guī)則,首先要避免傷害,使其有效,使其可執(zhí)行,使其真實,我認(rèn)為我們需要應(yīng)對這里的一些艱難問題,這個初步的聽證會提出了非常成功的問題,但沒有回答,我要感謝參與并提出這些非常有創(chuàng)意的建議的同事們,我對執(zhí)法非常感興趣。

15年前,我認(rèn)為廢除第230條是非常不切實際的,但現(xiàn)在,人們正在談?wù)搹U除第230條,那時候它被認(rèn)為是完全不現(xiàn)實的,但執(zhí)法確實非常重要,我想問一下Altman先生,因為隱私問題,您提到您對保護可能提供給您或可用的數(shù)據(jù)的隱私很感興趣,您采取了哪些具體措施來保護隱私?

Sam:

首先,我們不會對我們的API提交的任何數(shù)據(jù)進(jìn)行訓(xùn)練,所以如果你是我們的商業(yè)客戶,并提交數(shù)據(jù),我們不會對它進(jìn)行訓(xùn)練,我們確實會保留它30天,僅用于信任和安全執(zhí)法的目的,但這與訓(xùn)練不同。如果你使用ChatGPT,你可以選擇不讓我們訓(xùn)練你的數(shù)據(jù),你也可以刪除你的對話歷史記錄或整個賬戶。

主席:

在我的開幕致辭里提到了三個我目前關(guān)切的原則,透明性,可追責(zé)性和對使用的限制。你們認(rèn)為這是否是個好的起點?

Sam:

我非常贊同這些是重要的觀點,我要補充一點,Marcus教授也提到了這一點,當(dāng)我們在討論當(dāng)前的風(fēng)險時,我們大部分時間都花在了這個問題上。我認(rèn)為這是適當(dāng)?shù),我非常高興我們已經(jīng)這樣做了。

隨著系統(tǒng)變得越來越有能力,我不確定離那還有多遠(yuǎn),但也許不是很遠(yuǎn),我認(rèn)為我們也需要花時間討論我們將如何應(yīng)對這些挑戰(zhàn)。

主席:

了解您私下里的一些對此的關(guān)心,我知道我有多么關(guān)心,我同意,您深入而強烈的關(guān)切風(fēng)險增加的可能性,即使是在目前的形式下,威脅也可能比許多人意識到的更近。

Hawley:

生成的AI的潛在副作用或危害,讓我們簡單地總結(jié)一下,失去工作,這在預(yù)料之中,我認(rèn)為IBM宣布由于AI可能裁員7800人,這相當(dāng)于你們非面向消費者的員工的三分之一,失去了工作;侵犯個人隱私的規(guī)模前所未見;操縱個人行為;操縱個人觀點;可能導(dǎo)致美國自由選舉的退化,我有所遺漏嗎?

我的意思是,這是一個相當(dāng)長的清單。

我注意到大約有1000名科技和人工智能領(lǐng)域的權(quán)威人士,從安德魯楊(Andrew Yang)到埃隆馬斯克(Elon Musk),最近呼吁暫停進(jìn)一步的人工智能發(fā)展,或者他們寫信表示支持這樣做。

您是否贊同暫停6個月或更長時間的進(jìn)一步發(fā)展?

(另一位參會的教授)您的描述不完全正確,我實際上簽署了那封信。

Altman先生,您同意這個建議嗎?您是否會暫停進(jìn)一步的發(fā)展6個月或更長時間?

Sam:

首先,我們在完成GPT-4的訓(xùn)練后等了6個多月才部署它。我們目前并沒有訓(xùn)練將要用于GPT-5的計劃,未來6個月內(nèi)也沒有計劃。

但我認(rèn)為信中的框架是錯誤的。重要的是審計、紅隊測試和安全標(biāo)準(zhǔn),模型在訓(xùn)練之前必須通過這些標(biāo)準(zhǔn)。如果我們暫停6個月,那么我不確定接下來我們會做什么。我們是否再暫停6個月,是否制定一些規(guī)則。

我們已經(jīng)制定并在GPT-4部署中使用的標(biāo)準(zhǔn),我們希望在此基礎(chǔ)上進(jìn)行改進(jìn),但我們認(rèn)為這是正確的方向,而不是根據(jù)日歷來暫停。可能會有時候,我相信會有時候,我們會遇到我們不理解的情況,我們確實需要暫停,但我們還沒有看到那種情況。先不談所有的好處。

Hawley:

您還沒有看到什么呢?您對當(dāng)前現(xiàn)有技術(shù)的潛在影響是否感到滿意?

Sam:

對不起,我們還沒有看到任何阻止我們訓(xùn)練下一個模型的理由。我們擔(dān)心的部署,在哪里會有很多危險的操作以及限制,我們需要在某些時候后退一步。

Hawley:

好的,關(guān)于可行性的問題讓我想到了另一個方面。我對這個機構(gòu)的討論很感興趣,也許這種方式行得通,盡管我看到政府中的機構(gòu)是如何運作的,它們通常被它們所監(jiān)管的利益所控制,它們通常受到應(yīng)該監(jiān)管的人的控制,這在過去的100年里一直是我們的歷史,也許這個機構(gòu)會有所不同。

我有一個稍微不同的想法,為什么我們不讓人們起訴您呢?為什么我們不讓您在法庭上承擔(dān)責(zé)任呢?

我們可以做到這一點,我們知道如何做到這一點,我們可以通過立法來創(chuàng)建一項聯(lián)邦訴訟權(quán),允許個人將受到這種技術(shù)傷害的人進(jìn)入法庭,并提供證據(jù),可以是任何人,我是說你想說眾包,我們只需打開法院大門,我們將定義廣泛的訴訟權(quán),私人訴訟權(quán),私人公民可以采取集體訴訟的形式,我們只需打開大門,允許人們進(jìn)入法院,允許他們提出證據(jù),他們說自己受到了醫(yī)療錯誤信息的傷害,他們被提供了選舉錯誤信息,等等,為什么不這樣做,Altman先生?

Sam:

對不起,請原諒我的無知,人們難道不能起訴我們嗎?

Hawley:

你沒有被第230條保護。但目前還沒有我認(rèn)為沒有聯(lián)邦訴訟權(quán),私人訴訟權(quán)說,如果你受到生成式AI技術(shù)的傷害,我們將保證你有能力進(jìn)入法庭。

Sam:

哦,我認(rèn)為像許多其他法律一樣,如果你知道技術(shù)會傷害你,那么就有標(biāo)準(zhǔn),我們可以被起訴。

除非我真的誤解了事物的運作方式,如果問題是,更清晰的法律關(guān)于這項技術(shù)的具體內(nèi)容和消費者保護是否是一件好事,我會說絕對是的。

Booker:

不會有暫停,沒有執(zhí)行機構(gòu)可以強制暫停。這簡直不可能發(fā)生。呼吁它很好,無論是出于任何理由,請原諒我的疑問,沒有人會暫停。這件事很簡單。

Altman先生,我有一個問題,你沒有擔(dān)心嗎?你畢業(yè)于斯坦福大學(xué)。我知道硅谷中的許多玩家,從風(fēng)險投資者到許多公司的創(chuàng)始人,我們都知道。你對少數(shù)玩家是否有些擔(dān)憂嗎?擁有超凡的資源和影響華盛頓的權(quán)力。

我的意思是,我喜歡,我相信自由市場,但原因是我走進(jìn)便利店,玉米片比蘋果便宜,快餐比沙拉桶便宜,是因為政府傾斜天平選擇贏家和輸家。

所以,當(dāng)有大企業(yè)有影響力時,自由市場并不是它應(yīng)有的樣子,可以影響這里的游戲。在這場技術(shù)創(chuàng)新時代,你對此是否有些擔(dān)憂?

Sam:

是的,這也是我們創(chuàng)立OpenAI的很大原因。我們對此非常擔(dān)憂。我認(rèn)為重要的是民主化這些系統(tǒng)的輸入,我們要分配的價值觀。我也認(rèn)為重要的是給予人們廣泛使用這些工具的機會。當(dāng)我們啟動API戰(zhàn)略時,這在很大程度上是我們讓任何人使用我們系統(tǒng)的方式。人們對此存在很大懷疑,這確實帶來挑戰(zhàn),可以肯定。

但我們認(rèn)為把這件事放在很多人手中,而不是幾家公司手中,這真的非常重要。我們看到由此產(chǎn)生的創(chuàng)新繁榮。但確實,能訓(xùn)練真正前沿模型的公司數(shù)目將是少數(shù)。只是因為所需資源非常大。所以,我認(rèn)為我們及競爭對手需要受到巨大監(jiān)督。

我認(rèn)為有一系列興奮創(chuàng)新的研究和新創(chuàng)業(yè)公司,不僅使用我們的模型,還創(chuàng)造自己的模型。我認(rèn)為重要的是確保任何監(jiān)管措施發(fā)生,任何新機構(gòu)是否成立,我們要保留那些火苗,因為那是關(guān)鍵的。

Booker:

我堅信技術(shù)的民主化潛力,但我看到那個承諾一次又一次失敗。人們說,哦,這會產(chǎn)生很大的民主化力量。我的團隊致力于通過算法加強偏見而導(dǎo)致在某些郵編(地區(qū)中)沒有提供機會的問題。

我在web 3中聽到這些會分布式,(資源和權(quán)力)分布式這些事情會發(fā)生。

但這一次,似乎甚至不提供那個承諾,因為設(shè)計這些技術(shù)的人需要如此巨大的權(quán)力、能源和資源。你認(rèn)為,這項技術(shù)的民主化夢想和更多機會在少數(shù)已經(jīng)控制了這么多的幾家公司之中是可能的嗎?

Sam:

關(guān)于使用模型和建立在其基礎(chǔ)上的要點,這真的是一種新的平臺。談?wù)撜l會創(chuàng)建模型顯然很重要。我也想這么做。我也認(rèn)為決定我們要對齊這些模型的價值觀真的很重要。

但在使用模型方面,構(gòu)建OpenAI API的人做了不可思議的事情。人們經(jīng)常評論說,我簡直不敢相信你用這么少的錢得到這么多技術(shù)。

所以,人們正在構(gòu)建的公司,無處不在使用我們的API,這確實使我們能夠采取安全措施,我認(rèn)為這相當(dāng)興奮。這就是它現(xiàn)在已經(jīng)被民主化的方式,而不是它將如何被民主化。

現(xiàn)在,有全新的產(chǎn)業(yè)革命,許多不同公司在這些模型之上產(chǎn)生新業(yè)務(wù)、新產(chǎn)品和新服務(wù)。

Booker:

主席,在結(jié)束時,我還有幾句話。

大多數(shù)行業(yè)甚至無法合理監(jiān)管,從安全帶法律到我們最近一直在談?wù)摰蔫F路安全,唯一的方式是我們能夠看到價值觀的民主化。我認(rèn)為雖然有高尚的公司,但是我們是不是應(yīng)該制定道路規(guī)則,以實施某些安全措施,就像我們在其他技術(shù)中所看到的那樣,謝謝。

主席:

Booker和我非常認(rèn)同的是,在消費者保護方面,我一直在做這件事,行業(yè)的參與是非常重要的,不僅僅是在言辭上,而是在實際行動上。因為我們有許多行業(yè)來到我們面前,說哦,我們都支持規(guī)則,但不是那些規(guī)則,那些規(guī)則我們不喜歡。實際上是每個規(guī)則他們都不喜歡。

我感覺這里的意愿是真誠和真實的。

我考慮過要求ChatGPT做新版本時不要停止思考未來,因為這是我們需要做的。

參議員霍利指出,國會的進(jìn)展并不總是緊跟技術(shù)的步伐,這可能是我們需要新的機構(gòu)的原因,但我們也需要認(rèn)識到世界其他地方也在發(fā)展。

你在關(guān)注我們和闡明這些問題方面提供了巨大幫助這些問題,今天在這里表現(xiàn)出色。

所以謝謝聽證會的每位證人。我會在一周內(nèi)保持記錄開放,以防任何人想提交任何東西。我鼓勵你們?nèi)魏稳,無論是要出版的手稿還是公司的公開報告,都請向我們提交。我們期待下次聽證會。這個聽證會宣布結(jié)束。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港