展會信息港展會大全

打著“開源”旗號的AI大模型,可能會有一些陷阱?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-08-29 15:40:21   瀏覽:18668次  

導(dǎo)讀:ChatGPT 的問世,讓更多人開始有機會使用強大的人工智能(AI),但這個聊天機器人的內(nèi)部運作機制仍是一個未公開的秘密。 因而, 近幾個月來,讓人工智能更加開放的相關(guān)工作似乎獲得了人們的更多關(guān)注。 今年 5 月,有人泄露了 Meta 公司的Llama模型,讓外界可...

ChatGPT 的問世,讓更多人開始有機會使用強大的人工智能(AI),但這個聊天機器人的內(nèi)部運作機制仍是一個未公開的秘密。

因而,近幾個月來,讓人工智能更加“開放”的相關(guān)工作似乎獲得了人們的更多關(guān)注。

今年 5 月,有人泄露了 Meta 公司的“Llama”模型,讓外界可以訪問其底層代碼以及決定其行為的模型權(quán)重等。今年 7 月,Meta 又推出了功能更強大的模型 Llama 2,聲稱供任何人下載、修改和重復(fù)使用。自此,Meta 的 Llama 系列模型成為了許多公司、研究人員和人工智能業(yè)余愛好者構(gòu)建具有類似 ChatGPT 功能的工具和應(yīng)用程序的基礎(chǔ)。

“我們在世界各地?fù)碛袕V泛的支持者,他們相信我們對當(dāng)今人工智能的開放方法......研究人員致力于使用該模型進行研究,而科技界、學(xué)術(shù)界和政策部門的人們也和我們一樣,看到了 Llama 和開放平臺的好處,” Meta 在發(fā)布 Llama 2 時說。日前,Meta 也發(fā)布了另一個模型Llama 2 Code,該模型針對編碼進行了微調(diào)。

數(shù)十年來,開源方法使軟件的獲取變得更加民主、確保了透明度并提高了安全性,現(xiàn)在似乎也被認(rèn)為可以對人工智能產(chǎn)生類似的影響。

但這或許還遠遠不夠。

來自卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金會(Signal Foundation)的研究團隊,在一篇題為“Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”的論文中,探討了“Llama 2”和其他以某種方式“開源”的人工智能模型的現(xiàn)實情況。他們表示,打著“開源”旗號的模型可能會有一些“陷阱”。

據(jù)論文描述,盡管 Llama 2 可以免費下載、修改和部署,但它不在傳統(tǒng)的開源許可范圍內(nèi)。Meta 的許可證禁止使用 Llama 2 訓(xùn)練其他語言模型,如果開發(fā)者將 Llama 2 部署到每日用戶超過 7 億的應(yīng)用程序或服務(wù)中,則需要特殊許可證。

這種程度的控制意味著 Llama 2 可以為 Meta 帶來重大的技術(shù)和戰(zhàn)略利益例如,當(dāng)外部公司在自己的應(yīng)用程序中使用 Llama 2 模型時,Meta 可以從有益的調(diào)整中獲益。

研究人員說,在普通開源許可下發(fā)布的模型,如非營利組織 EleutherAI 的 GPT Neo,開放程度更高。但這些項目很難與大型公司推出的模型競爭。

首先,訓(xùn)練高級模型所需的數(shù)據(jù)往往是保密的;其次,構(gòu)建此類模型所需的軟件框架通常由大公司控制,最流行的兩個軟件框架 TensorFlow 和 Pytorch 分別由谷歌和 Meta 維護;再者,訓(xùn)練大型人工智能模型所需的計算機能力也非一般開發(fā)人員或公司所能承擔(dān),通常一次訓(xùn)練需要數(shù)千萬或數(shù)億美元;最后,完善和改進這些模型所需的人力也大多是大公司才能獲得的資源。

因此,研究團隊認(rèn)為,從目前的趨勢來看,這項數(shù)十年來最重要的技術(shù)之一最終可能只會豐富和增強少數(shù)幾家公司的能力,其中包括 OpenAI、微軟、Meta 和谷歌。如果人工智能真的是一項能改變世界的技術(shù),而且能得到更廣泛的應(yīng)用和普及,就能為全世界帶來最大的好處。

“我們的分析表明,(這種程度的)開源不僅不會使人工智能‘民主化’,” 該論文的作者之一 Meredith Whittaker 告訴《連線》(Wired),“事實上,公司和機構(gòu)可以而且已經(jīng)利用“開源”技術(shù)來鞏固和擴大權(quán)力集中。”

進一步說,即使是最開放的“開放”人工智能系統(tǒng),其本身也不能確保人工智能的民主獲取或有意義的競爭,開放本身也不能解決監(jiān)督和審查的問題。

Whittaker 補充說,開源應(yīng)該成為亟需制定的人工智能法規(guī)的一個重要考慮因素,“我們確實亟需有意義的替代技術(shù),來取代由大型壟斷企業(yè)定義和主導(dǎo)的技術(shù)尤其是當(dāng)人工智能系統(tǒng)被整合到醫(yī)療保艦金融、教育等具有特殊公共影響的高度敏感領(lǐng)域時。創(chuàng)造條件讓這種替代成為可能,是一個可以與反壟斷改革等監(jiān)管運動共存甚至得到其支持的項目。”

研究團隊也表示,除了制衡大公司的權(quán)力之外,讓人工智能更加開放對于釋放該技術(shù)的最佳潛力同時避免其最壞的傾向可能至關(guān)重要。

如果我們想了解最先進的人工智能模型有多大能力,并降低部署和進一步發(fā)展可能帶來的風(fēng)險,那么最好向全世界的科學(xué)家開放這些模型。

正如“隱晦式安全”(security through obscurity)永遠無法真正保證代碼的安全運行一樣,對強大的人工智能模型的工作原理加以保護,也未必是一個最明智的做法。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港