展會信息港展會大全

走向平衡:生成式AI的開源與專有模型之爭
來源:互聯(lián)網   發(fā)布日期:2023-10-11 09:47:32   瀏覽:5070次  

導讀:葛凌 牛津大學博士、騰訊公司歐洲首席代表 2023年3月,OpenAI發(fā)布了極具開創(chuàng)性的GPT-4模型,這是生成式人工智能歷史上的里程碑。然而,這并不是3月唯一一件吸引科技界目光的活動。僅在兩周后,在舊金山市區(qū)舉辦了另一個被業(yè)內稱為 AI屆的伍德斯托克 的活動。...

葛凌牛津大學博士、騰訊公司歐洲首席代表

2023年3月,OpenAI發(fā)布了極具開創(chuàng)性的GPT-4模型,這是生成式人工智能歷史上的里程碑。然而,這并不是3月唯一一件吸引科技界目光的活動。僅在兩周后,在舊金山市區(qū)舉辦了另一個被業(yè)內稱為“AI屆的伍德斯托克”的活動。(注:伍德斯托克音樂節(jié)在美國紐約州北部城鎮(zhèn)伍德斯托克附近舉行,是世界上最著名的系列性搖滾音樂節(jié)之一)

這次充滿活力的聚會,旨在慶祝開源類生成式AI的快速發(fā)展,以及圍繞它涌現出來的社群。那之后的幾個月,開源生態(tài)系統(tǒng)中出現了大量新的參與者、模型和用例。在未來的某一節(jié)點,當人們回望AI發(fā)展的歷史,極有可能會將這個專有模型和開源模型公開競爭的階段視作決定性的時刻。

在GPT-4發(fā)布和“AI屆的伍德斯托克”聚會之后的六個月里,專有與開源二者競爭的往來招式變得更加犀利。為方便讀者更好的理解,先贅述一些學術定義:生成式AI被歸類為“封閉源代碼”,其中專有基礎模型通常由大型科技公司擁有,用戶每次API調用需付費;相比之下,開源生態(tài)系統(tǒng)則推崇免費共享和可調整AI模型參數(參與的公司通過間接方式獲得收入,例如,通過分享云服務提供商提供其模型的收入)。

目前,我們正在見證這兩種路徑之間的較量。開源模型的支持者聲稱他們的進步是強大且不可阻擋的。近期,OpenAI推出了GPT-Vision,這是另一個強大的專有模型,它旨在將視覺與文本相結合。在新書《即將來臨的浪潮》中,DeepMind聯(lián)合創(chuàng)始人Mustafa Suleyman認為,出于安全考慮,應該禁止在AI模型背景下進行開源。

全球企業(yè)和消費者主要是采用封閉源代碼的生成式AI,還是主要采用開源生成式AI,或者兩種類型的平衡,將是問題的關鍵。這個結果至關重要,不僅是從確保AI以有益于人類的方式發(fā)展的角度出發(fā),還體現在它將塑造商業(yè)和社會中最具變革性的AI應用案例,以及決定誰將收獲生成式AI的回報。

但首先我們要弄清楚,這個“AI屆的伍德斯托克”節(jié)日到底是什么,參加的是誰?“開源AI聚會”于三月下旬在舊金山的探索館舉行,共有超過5000名與會者。就像它名字來源的搖滾音樂節(jié)一樣,這個聚會有著強烈的派對氛圍,而開源運動的合作精神和創(chuàng)新能量進一步強化了這種氛圍。

在人群中,舉辦了這場聚會的AI公司Hugging Face的首席執(zhí)行官Clement Delangue身著公司恰如其分的吉祥物裝,一個看起來像“擁抱臉”的歡快黃色表情符號。羊駝在會場周圍閑逛這是對Meta的大型語言模型“LLaMA”的幽默致敬。在“釋放羊駝”的標語飄揚的空氣中,各種AI名人,如Andrew Ng以及大型語言模型(LLM)初創(chuàng)公司Anthropic的領導者在常大多數的參會者都在時代雜志最近發(fā)布的AI領域100位最具影響力人物名單中。

盡管與任何科技會議都不同,但在現場被分享的觀念卻具有改變游戲規(guī)則的潛力,對生成式AI的巨大潛力也充滿了清晰而真誠的興奮麥肯錫最近估計,在63個應用案例中,這種潛力每年可額外增加2.6萬億至4.4萬億美元的價值。

各地的科技領袖都對此(生成式AI)充滿興奮。例如,騰訊公司創(chuàng)始人兼首席執(zhí)行官馬化騰在2023年5月公司股東大會上發(fā)言時表示:“我們最初認為AI是互聯(lián)網行業(yè)十年一遇的機會,但我們越來越意識到,這是一個幾百年才出現的、與工業(yè)革命和電力利用類似的罕見機會。”

問題在于,在兩種生成式AI模型中,哪一種正在引領新的工業(yè)革命?

目前,專有類型領先。這有兩個明顯的原因:專有模型在能力方面處于領先地位,而且目前被認為更安全。

首先是性能。根據領先的基準測試,如大規(guī)模多任務語言理解測試,OpenAI的GPT-4目前以顯著優(yōu)勢成為最強大、最有能力的大語言模型。盡管開源模型的質量正在迅速提高,但它們仍然落后于領先的封閉源代碼替代品。

這背后的原因是培訓領先基礎模型的嚴峻商業(yè)現實。前期成本巨大,從購買價格約為30,000美元的Nvidia頂級H100 GPU芯片,到龐大的云計算費用都被計算在其中。此外,部署先進的訓練技術,如使用人類反饋的強化學習,需要專業(yè)知識的加持。像Cohere、Anthropic、Adept、Mistral、Aleph Alpha、AI21 Labs和Imbue這樣的初創(chuàng)公司的支出模式僅芯片支出就占據預算的很大一部分就說明了這一點。

總的來說,專有模型被投入了最多資源。在OpenAI的例子中,涉及的成本規(guī)模之大看起來可以促使其從開放轉向封閉。OpenAI由首席執(zhí)行官Sam Altman與Elon Musk等知名人士于2015年創(chuàng)立,最初是為開源模型而打造。然而,在發(fā)布迄今為止最強大的大語言模型時,該組織放棄了最初的開源承諾。這種轉變可以部分歸因于OpenAI需要保護其巨額投資。

目前,安全性被視為另一個封閉源代碼的優(yōu)勢。OpenAI聲稱,它選擇封閉的另一個原因是與大語言模型相關的道德風險。這些模型有被不良行為者濫用的可能性,隨著它們變得越來越強大,它們被公開訪問的風險也在增加。OpenAI的首席科學家Ilya Sutskever表示:“如果你和我們一樣相信,某個時候,AI或AGI將變得非常強大,那么開源它根本沒有意義。這是一個糟糕的主意。”

那么,鑒于Sutskever的觀點和專有模型在性能上的優(yōu)勢,為什么開源生成式AI運動會引起如此多的關注呢?全球最大的科技公司以及初創(chuàng)公司和大量開發(fā)者都在加入其中。

其中的一個原因是,隨著時間的推移,開源在科技界慢慢地取得了成功,F代云基礎設施主要運行在Linux上,機器學習由諸如Python之類的開源許可下開發(fā)的語言驅動,開源滲透到科技領域的許多方面。

“AI屆的伍德斯托克”的激動人心之處在于開源創(chuàng)新。開源大語言模型將其權重和參數公開,使全球開發(fā)者社區(qū)能夠對其進行微調和改進,激發(fā)出比最新的專有模型更大的創(chuàng)新。

對于希望采用生成式AI的企業(yè)來說,輕松微調開源模型的能力也具有極大的吸引力它使他們能夠根據自己公司特定的數據調整這些模型,以實現需要這些知識的特定用例。

“AI屆的伍德斯托克”的組織者Hugging Face是開源AI運動的早期先驅之一。該公司成立于2016年,其開源產品之一是Transformers庫。該庫作為一個開放的大語言模型存儲庫,客戶可以訪問以進一步自行調整模型,或者通過API調用典型的大語言模型功能,如句子補全、分類或文本生成。這個“模型即服務”平臺使各種規(guī)模的企業(yè)能夠從實驗過渡到部署,無需過多的內部資源。用戶可以使用托管基礎設施將任何模型轉換為自己的API,將開源模型民主化AI的精神展現得淋漓盡致。

微軟、谷歌、Meta、英特爾和eBay等公司是Hugging Face的1萬多名客戶中的一部分。它的“模型即服務”概念已經發(fā)展到托管超過100萬個模型、數據集和應用程序。這個多樣化的生態(tài)系統(tǒng)強調了其開源工具的廣泛適用性,從輝瑞和羅氏等制藥巨頭的數據安全升級專門的AI應用,如彭博的財經語言模型BloombergGPT,其都有涉及。

隨著AI領域的不斷發(fā)展,主要人物和關鍵參與者越來越傾向于支持生成式AI成為開源。圖靈獎獲得者、Meta首席AI科學家Yann LeCun闡述了他認為我們需要開源大語言模型的原因:“由于AI基礎模型在未來將成為基本基礎設施,人們和行業(yè)會要求它是開源的。就像互聯(lián)網的軟件基礎設施一樣。”

Meta首席執(zhí)行官馬克扎克伯格在支持開源方面有著不同的理由。“它每天都在變得更加高效,”他評論道。“我只是覺得我們也會從整個學生、黑客、初創(chuàng)公司和不同人群使用這個模型中學到很多。”

為順應這種精神,Meta在7月發(fā)布的LLaMa-2可以說是迄今為止公眾可以使用的最強大、最高性能的開源大語言模型,具有預訓練和微調版本,擁有70億、130億和700億參數。

除了像LLaMa-2這樣的主流舉措之外,其他值得關注的項目也在為開源AI生態(tài)系統(tǒng)做出貢獻。例如,Runway于2018年開始專注于為電影制作人提供AI工具,但現在已轉向生成式AI。它的代表性產品Gen-2在根據文本提示創(chuàng)建視頻方面具有先鋒性,公司還特別推出了Runway Studios和AI電影節(jié)以擴大其影響力。

另一方面,作為一個Python庫,LangChain旨在增強大語言模型的可用性、可訪問性和多功能性,使開發(fā)者更容易將這些強大的工具集成到各種應用程序中。這些項目都展示了開源AI模型在不同領域日益多樣化和適用性的增長。

開源模型也在挑戰(zhàn)一個觀念,即在模型參數方面,更大總是更好。較小的模型可以提供成本效益、更大的靈活性,甚至在針對特定應用進行微調時可能優(yōu)于較大的模型。

在關于如何確保AI安全和負責任的關鍵問題上,開源模型一方也有很好的論據。專有模型的支持者認為,讓所有人都能訪問這些模型是危險的。然而,開源AI的支持者反駁說,開源大語言模型既提供了透明度,又吸引了來自多元社區(qū)的審查。這有助于識別和減少偏見,使它們更公平。此外,與一些封閉源代碼模型不同,開源在用戶數據的使用方面提供了透明度。

未來會如何發(fā)展,哪種模型會勝出呢?總的來說,每種方法都有其優(yōu)點。專有模型(如GPT-4)具有獨特的優(yōu)勢,包括個性化的定制、專用支持和強大的安全功能。另一方面,諸如效率、透明度和公平性等特點為開源AI提供了有力的論據。

當然,一個理性的策略是讓公司提供并利用這兩個模型的優(yōu)點。在這一方面,騰訊公司采取了雙重策略。我們推出了專有的基礎AI模型“混元”,它可被用于多種應用方向,同時還在騰訊云上提供了“模型即服務”解決方案。該服務旨在實現在多個行業(yè)中高效部署開源模型。

我們預計,未來格局將是少數專有基礎模型占主導地位,但針對特定行業(yè)和企業(yè)應用的開源專門模型也將繁榮發(fā)展;诜浅P⌒湍P(能夠在智能手機和筆記本電腦上的即時通訊軟件中運行)的個人AI助手將成為我們的陪伴者。

Meta的LLaMa-2由美國云服務提供商如Microsoft Azure和Amazon AWS托管,這凸顯了這些科技公司同樣看到了支持開源模型以及專有模型的價值。

我們應該歡迎開源和專有模型之間的良性競爭。幸運的是,目前似乎沒有哪種方法會占據主導地位的可能。過去六個月,這兩類模型之間的質量差距已經縮校開源模型激發(fā)創(chuàng)新以及促進責任和安全的潛力正變得越來越明顯。

牛津大學計算機科學教授、圖靈研究所基礎AI研究主管邁克爾伍爾德里奇教授是AI領域的先驅,他將在2023年皇家學會圣誕講座上演講“關于AI的真相”。他希望看到這兩種方法都能繁榮發(fā)展。他認為:“在這個關鍵的時刻,像ChatGPT這樣的大眾市嘗通用AI工具已經出現。開源和專有模型各有優(yōu)缺點。在我們繼續(xù)發(fā)展的過程中,保持二者的平衡以確保AI繼續(xù)成為造福更廣泛社會的工具至關重要。”

贊助本站

人工智能實驗室
相關內容
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港