ChatGPT 的問世,讓更多人開始有機會使用強大的人工智能(AI),但這個聊天機器人的內(nèi)部運作機制仍是一個未公開的秘密。
因而,近幾個月來,讓人工智能更加“開放”的相關(guān)工作似乎獲得了人們的更多關(guān)注。
今年 5 月,有人泄露了 Meta 公司的“Llama”模型,讓外界可以訪問其底層代碼以及決定其行為的模型權(quán)重等。今年 7 月,Meta 又推出了功能更強大的模型 Llama 2,聲稱供任何人下載、修改和重復(fù)使用。自此,Meta 的 Llama 系列模型成為了許多公司、研究人員和人工智能業(yè)余愛好者構(gòu)建具有類似 ChatGPT 功能的工具和應(yīng)用程序的基礎(chǔ)。
“我們在世界各地?fù)碛袕V泛的支持者,他們相信我們對當(dāng)今人工智能的開放方法......研究人員致力于使用該模型進行研究,而科技界、學(xué)術(shù)界和政策部門的人們也和我們一樣,看到了 Llama 和開放平臺的好處,” Meta 在發(fā)布 Llama 2 時說。日前,Meta 也發(fā)布了另一個模型Llama 2 Code,該模型針對編碼進行了微調(diào)。
數(shù)十年來,開源方法使軟件的獲取變得更加民主、確保了透明度并提高了安全性,現(xiàn)在似乎也被認(rèn)為可以對人工智能產(chǎn)生類似的影響。
但這或許還遠遠不夠。
來自卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金會(Signal Foundation)的研究團隊,在一篇題為“Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”的論文中,探討了“Llama 2”和其他以某種方式“開源”的人工智能模型的現(xiàn)實情況。他們表示,打著“開源”旗號的模型可能會有一些“陷阱”。
據(jù)論文描述,盡管 Llama 2 可以免費下載、修改和部署,但它不在傳統(tǒng)的開源許可范圍內(nèi)。Meta 的許可證禁止使用 Llama 2 訓(xùn)練其他語言模型,如果開發(fā)者將 Llama 2 部署到每日用戶超過 7 億的應(yīng)用程序或服務(wù)中,則需要特殊許可證。
這種程度的控制意味著 Llama 2 可以為 Meta 帶來重大的技術(shù)和戰(zhàn)略利益例如,當(dāng)外部公司在自己的應(yīng)用程序中使用 Llama 2 模型時,Meta 可以從有益的調(diào)整中獲益。
研究人員說,在普通開源許可下發(fā)布的模型,如非營利組織 EleutherAI 的 GPT Neo,開放程度更高。但這些項目很難與大型公司推出的模型競爭。
首先,訓(xùn)練高級模型所需的數(shù)據(jù)往往是保密的;其次,構(gòu)建此類模型所需的軟件框架通常由大公司控制,最流行的兩個軟件框架 TensorFlow 和 Pytorch 分別由谷歌和 Meta 維護;再者,訓(xùn)練大型人工智能模型所需的計算機能力也非一般開發(fā)人員或公司所能承擔(dān),通常一次訓(xùn)練需要數(shù)千萬或數(shù)億美元;最后,完善和改進這些模型所需的人力也大多是大公司才能獲得的資源。
因此,研究團隊認(rèn)為,從目前的趨勢來看,這項數(shù)十年來最重要的技術(shù)之一最終可能只會豐富和增強少數(shù)幾家公司的能力,其中包括 OpenAI、微軟、Meta 和谷歌。如果人工智能真的是一項能改變世界的技術(shù),而且能得到更廣泛的應(yīng)用和普及,就能為全世界帶來最大的好處。
“我們的分析表明,(這種程度的)開源不僅不會使人工智能‘民主化’,” 該論文的作者之一 Meredith Whittaker 告訴《連線》(Wired),“事實上,公司和機構(gòu)可以而且已經(jīng)利用“開源”技術(shù)來鞏固和擴大權(quán)力集中。”
進一步說,即使是最開放的“開放”人工智能系統(tǒng),其本身也不能確保人工智能的民主獲取或有意義的競爭,開放本身也不能解決監(jiān)督和審查的問題。
Whittaker 補充說,開源應(yīng)該成為亟需制定的人工智能法規(guī)的一個重要考慮因素,“我們確實亟需有意義的替代技術(shù),來取代由大型壟斷企業(yè)定義和主導(dǎo)的技術(shù)尤其是當(dāng)人工智能系統(tǒng)被整合到醫(yī)療保艦金融、教育等具有特殊公共影響的高度敏感領(lǐng)域時。創(chuàng)造條件讓這種替代成為可能,是一個可以與反壟斷改革等監(jiān)管運動共存甚至得到其支持的項目。”
研究團隊也表示,除了制衡大公司的權(quán)力之外,讓人工智能更加開放對于釋放該技術(shù)的最佳潛力同時避免其最壞的傾向可能至關(guān)重要。
如果我們想了解最先進的人工智能模型有多大能力,并降低部署和進一步發(fā)展可能帶來的風(fēng)險,那么最好向全世界的科學(xué)家開放這些模型。
正如“隱晦式安全”(security through obscurity)永遠無法真正保證代碼的安全運行一樣,對強大的人工智能模型的工作原理加以保護,也未必是一個最明智的做法。