財(cái)聯(lián)社6月8日訊(編輯 周子意)根據(jù)人工智能初創(chuàng)公司OpenAI CEO最新給出的說法,目前OpenAI仍然沒有培訓(xùn)GPT-5。
OpenAI首席執(zhí)行官Sam Altman周三(6月7日)在印度《經(jīng)濟(jì)時(shí)報(bào)》主辦的一次會議上說。“在啟動這種模式之前,我們還有很多工作要做。”
“我們正在研究我們認(rèn)為需要的新想法,但我們肯定還沒有接近開始(訓(xùn)練GPT-5)。”
就在幾個月前,在許多行業(yè)高管和學(xué)者對Sam Altman的大型語言模型的快速發(fā)展表示擔(dān)憂后,當(dāng)時(shí)這家AI初創(chuàng)公司承諾“一段時(shí)間內(nèi)”不會開發(fā)GPT-4的繼任者GPT-5。
短期內(nèi)不會這么做
3月底,包括特斯拉CEO埃隆馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫沃茲尼亞克(Steve Wozniak)等1100多名行業(yè)高管、專家聯(lián)名簽署了一封公開信,呼吁“所有人工智能實(shí)驗(yàn)室立即暫停對比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練至少6個月”。
幾周后,Altman回應(yīng)這封信表示,它“遺漏了我們需要暫停的大部分技術(shù)細(xì)節(jié)”。雖然Altman也認(rèn)為,謹(jǐn)慎行事和對安全問題越來越嚴(yán)格的態(tài)度非常重要,但并不承認(rèn)這封信是解決這個問題的最佳方式。此外他還堅(jiān)稱,OpenAI還沒有開始培訓(xùn)GPT-5,而且“一段時(shí)間內(nèi)”也不打算這樣做。
Altmam周三再次反駁了一些對人工智能最直言不諱的擔(dān)憂聲,稱這家初創(chuàng)公司已經(jīng)在通過外部審計(jì)、紅隊(duì)測試(red-teaming)和安全測試等更有意義的措施來評估潛在的危險(xiǎn)。
Red-teaming是一種測試方式,指的是通過采取對抗的方式,對計(jì)劃、政策、制度和假設(shè)進(jìn)行嚴(yán)格挑戰(zhàn)的做法,OpenAI將其用于發(fā)現(xiàn)語言模型中的危害并減輕它們的危害。
Altman還補(bǔ)充道,“當(dāng)我們完成GPT-4時(shí),我們花了六個多月的時(shí)間才準(zhǔn)備好發(fā)布它。”他意在表明,即便公司已經(jīng)完成了GPT-5的訓(xùn)練,也需要一段時(shí)間的準(zhǔn)備去發(fā)布它。
在早些時(shí)候的采訪中,Altman還表示,“我們唯一監(jiān)管要求的是針對我們自己和更大的公司。”
奧特曼的多國之行
Altman的印度之行反映了他積極參與與全球立法者和行業(yè)人士的會面、并建立起信任的一步。
在會議上,Altman還積極敦促立法者認(rèn)真考慮人工智能的潛在濫用問題和其他負(fù)面影響,以便設(shè)置應(yīng)對措施,將意外事故降到最低。
本周二(6月6日),Altman在訪問阿聯(lián)酋期間提議,設(shè)立一個類似于IAEA的組織來監(jiān)督AI。IAEA成立于1957年,是致力于和平發(fā)展核能的獨(dú)立政府間國際組織。
Altman指出,IAEA是一個典范,面對一項(xiàng)非常危險(xiǎn)的技術(shù),在設(shè)置防護(hù)措施后,能同時(shí)兼顧機(jī)遇和安全。
(財(cái)聯(lián)社 周子意)