討論 AI 耗電高,不是斤斤計較,這背后是不折不扣的能源問題。
根據(jù)國際能源署(IEA)發(fā)布的《電力 2024到2026年的分析與預(yù)測》,2022年數(shù)據(jù)中心、人工智能(AI)和加密貨幣行業(yè)的全球電力消耗占比為2%,預(yù)計到2026年將翻倍至1000太瓦時以上。
中科院計算所助理研究員程大寧接受澎湃新聞采訪時表示,根據(jù)調(diào)研,未來算力會向著更大規(guī)模、更快互聯(lián)、更小化發(fā)展。這有兩方面的原因:一方面是現(xiàn)在模型的規(guī)模越來越大,需要更大算力和更大規(guī)模的顯存才能支撐,另一方面,邊端設(shè)備的智能化需要更低功耗,更快速度的部署,邊端設(shè)備數(shù)量多,因此需求量也很大。而智能化設(shè)備已經(jīng)成為生活中重要的一部分,未來推理會是更大的算力需求點。
程大寧還提到,從業(yè)內(nèi)數(shù)據(jù)來看,國內(nèi)一線大模型的運營成本中,電費占到了總成本的 50% 以上。
AI 如果一直這么耗電,普通人什么時候才能用上便宜的 AI 呢?要知道,GPT-4 的月費足足要 20 美元,文心一言的單月購買價格也要約 60 元。更多的 AI 工具開始選擇按使用量付費。有報道稱,因 AI 繪畫而揚名的初創(chuàng)公司 Stable Diffusion 已無力負擔天價算力賬單。
從總量上看,AI 耗電量不斷攀升無法避免,但科技公司也在想辦法減少 AI 這只“吃電怪獸”帶來的影響。
一條路是減小它的胃口,可以通過優(yōu)化算法提高效率,給模型做量化、剪枝都是減少計算量的方法,因此也能減少電量消耗。另一方面,科技公司也在下注新型能源,OpenAI 的CEO,Sam Altman 就投資了一家核聚變初創(chuàng)公司。英偉達 CEO 黃仁勛則更樂觀,他認為如果算力進步足夠快,就不需要太過在意能耗。
回收熱能的策略也很重要。根據(jù)上海交通大學算力中心的估計,回收熱能可以減少算力中心碳排放4850噸/年,其中余熱回收占950噸。優(yōu)刻得烏蘭察布數(shù)據(jù)中心的使用案例顯示,利用算力熱能功能可以節(jié)約50%左右的電費成本。
常言道,出來混總是要還的。AI 吃了這么多電修煉自己,除了吐出熱能,還能不能還我們一個新能源的未來呢?時間會告訴我們答案。
至少現(xiàn)在,在找 AI 閑聊前,得先掂量一下它的夸張耗電量。
參考資料:
《藏在 AI 背后的“吃電狂魔”》 - 雪豹財經(jīng)社:
https://www.36kr.com/p/2725525783520512
《1 次訓(xùn)練用電 2.4 億度,AI 為什么那么耗電?》 - 返樸:
https://mp.weixin.qq.com/s/VPnzuzUWSOw2coA0uz7ETQ
《一句黃仁勛沒說的話,火了》 - 36 氪:
https://36kr.com/p/2687714777493126
《算力的盡頭其實是電力?》 - 騰訊研究院:
https://m.huxiu.com/article/2861503.html