展會(huì)信息港展會(huì)大全

ChatGPT每年電費(fèi)2億?!日耗電量≈1.7萬(wàn)個(gè)家庭,網(wǎng)友:挺值
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-03-11 16:13:46   瀏覽:10474次  

導(dǎo)讀:ChatGPT居然這么費(fèi)電? 最新的等式出現(xiàn)了: ChatGPT日耗電量1.7萬(wàn)家庭日耗電量。 什么概念?一年光電費(fèi)就要花2億! 美國(guó)普通家庭平均單日用電29千瓦時(shí),而ChatGPT的單日用電量超過(guò)了 50萬(wàn)千瓦時(shí) 。 (美國(guó)商業(yè)用電一度約為0.147美元也就是1.06元,相當(dāng)于一天...

ChatGPT居然這么費(fèi)電?

最新的等式出現(xiàn)了:

ChatGPT日耗電量≈1.7萬(wàn)家庭日耗電量。

什么概念?一年光電費(fèi)就要花2億!

美國(guó)普通家庭平均單日用電29千瓦時(shí),而ChatGPT的單日用電量超過(guò)了50萬(wàn)千瓦時(shí)。

(美國(guó)商業(yè)用電一度約為0.147美元也就是1.06元,相當(dāng)于一天53萬(wàn)元)

消息一出就直接沖上熱搜第一了。

除了OpenAI,谷歌也“不容小覷”:

在谷歌搜索中應(yīng)用生成式AI技術(shù),谷歌每年的耗電量將高達(dá)290億千瓦時(shí),也就是每天約7900萬(wàn)度(?)。

而在未來(lái),AI這一“吃電巨獸”的食量還會(huì)更驚人。

數(shù)據(jù)統(tǒng)計(jì):

到2027年,人工智能數(shù)據(jù)中心的用電量將和荷蘭、瑞典等小國(guó)用電量相當(dāng)。

有網(wǎng)友看完表示:

這是利好光伏和風(fēng)電?

所以AI最后拼的是誰(shuí)發(fā)電多、誰(shuí)發(fā)電成本低?

01 AI要耗多少電?

如上數(shù)據(jù)來(lái)自一篇論文《The growing energy footprint of artificial intelligence》。

作者是荷蘭數(shù)字經(jīng)濟(jì)學(xué)家Alex de Vries,他通過(guò)英偉達(dá)、OpenAI、谷歌等公開(kāi)數(shù)據(jù)進(jìn)行估算。

結(jié)果就得出了很多意想不到的結(jié)論。

首先,現(xiàn)在大模型訓(xùn)練時(shí)期的耗電量和推理階段相比,已經(jīng)不值一提了

SemiAnalysis數(shù)據(jù)顯示,OpenAI需要3617臺(tái)英偉達(dá)HGX A100、共28936個(gè)GPU來(lái)支持ChatGPT推理。

ChatGPT每天需要響應(yīng)1.95億次請(qǐng)求,預(yù)計(jì)每天需要消耗564兆瓦時(shí)電力,每個(gè)請(qǐng)求大約2.9瓦時(shí)。

而GPT-3整個(gè)訓(xùn)練階段的耗電量預(yù)估為1287兆瓦時(shí),是ChatGPT大約4天的消耗量。

谷歌報(bào)告也表示,2019-2021年,與人工智能相關(guān)的能源消耗中有60%來(lái)自推理部分。

因此論文提出未來(lái)研究AI用電量時(shí),更應(yīng)該從全周期角度考量。

但這也與模型再訓(xùn)練頻率、模型性能與功耗之間的平衡有關(guān)系。比如BLOOM在推理階段的耗電量就顯著降低。

其次,搜索引擎如果用上AI,耗電量還會(huì)更高。

谷歌方面曾在去年2月表示,AI響應(yīng)請(qǐng)求的成本可能是普通搜索的10倍。

數(shù)據(jù)顯示,使用一次谷歌搜索消耗的電量是0.3瓦時(shí)。這和上面分析給出的數(shù)據(jù)相呼應(yīng)。

如果要將大模型能力植入到谷歌搜索中,預(yù)計(jì)需要512821個(gè)HGX A100,按照每臺(tái)設(shè)備功耗為6.5千瓦來(lái)計(jì)算,每天將需要80吉瓦時(shí)的電力消耗,一年需要29.2太瓦時(shí)。

目前谷歌每天需要處理高達(dá)90億次搜索,換算一下,平均每個(gè)請(qǐng)求要消耗6.9-8.9瓦時(shí),已經(jīng)是普通搜索的20倍+。

同樣的現(xiàn)象在英偉達(dá)的財(cái)報(bào)數(shù)據(jù)中也可以看到。

去年第二季度,英偉達(dá)收入創(chuàng)紀(jì)錄,其中數(shù)據(jù)中心部門(mén)較上季度相比增長(zhǎng)了141%,這表示AI方面的需求擴(kuò)增。

今年,英偉達(dá)AI服務(wù)器出貨量可能達(dá)到150萬(wàn)臺(tái),總功耗可能達(dá)到9.75-15.3吉瓦。這一數(shù)量級(jí)的服務(wù)器,每年的用電量將達(dá)到85.4-134太瓦時(shí)。

不過(guò)AI用電量會(huì)一路飆升嗎?

研究認(rèn)為也不一定。

哪怕像谷歌這樣在全球擁有數(shù)十億用戶(hù)的廠商,也會(huì)慎重考慮AI與搜索引擎的融合。硬件、軟件和電力成本壓力下,廠商腳步或許沒(méi)那么快。

硬件生產(chǎn)本身還受到掣肘,AI熱潮使得臺(tái)積電CoWoS先進(jìn)封裝產(chǎn)能吃緊,但新建工廠真正可能開(kāi)始批量生產(chǎn)要等到2027年,這或許也會(huì)影響英偉達(dá)的出貨量。

以及模型本身的算法和架構(gòu)也會(huì)讓AI功耗在一定程度上降低。

最終研究認(rèn)為,關(guān)于AI用電量的問(wèn)題,過(guò)于悲觀或樂(lè)觀都不可齲

短期內(nèi),在各種資源因素影響下,AI用電量增速會(huì)被抑制;但硬件和軟件的能效提高,顯然也無(wú)法抵消長(zhǎng)期的電力需求增長(zhǎng)。

總之,作者認(rèn)為在AI開(kāi)發(fā)方面,還是不要鋪張浪費(fèi)的好。監(jiān)管機(jī)構(gòu)也需要考慮要求廠商披露相關(guān)數(shù)據(jù),提高整個(gè)AI供應(yīng)鏈的透明度,從而更好了解這一新興技術(shù)的環(huán)境成本。

實(shí)際上,此前關(guān)于AI消耗資源的話(huà)題已經(jīng)多次引發(fā)討論。

有研究指出,到2027年,數(shù)據(jù)中心人工智能的用電量將與荷蘭或瑞典等小國(guó)的用電量相當(dāng)。

加州大學(xué)河濱分校研究表明,問(wèn)ChatGPT5-50個(gè)問(wèn)題,就可消耗500毫升水。

因?yàn)锳I超算數(shù)據(jù)中心需要大量水來(lái)散熱,微軟也承認(rèn)用水是訓(xùn)練模型的一大成本,從2021年到2022年,其全球用水量飆升了34%,相比研究AIGC前急劇增加。

02 網(wǎng)友:也要看產(chǎn)出

除了微博,#ChatGPT日耗電超50萬(wàn)度#的消息也在知乎沖上熱榜第三。

盡管這一數(shù)據(jù)看起來(lái)驚人,但不少網(wǎng)友都表示:

我們還是需要比較一下投入產(chǎn)出。

知乎網(wǎng)友@段小草就淺算了一下:

一天50萬(wàn)度電,1.7萬(wàn)個(gè)美國(guó)家庭。但美國(guó)有1.2億個(gè)家庭,也就是只需萬(wàn)分之一的家庭用電,就能支撐一個(gè)服務(wù)全球TOP 1的AI產(chǎn)品、服務(wù)幾億用戶(hù),這還是在浪費(fèi)能源破壞環(huán)境嗎?

言外之意,如下所說(shuō)(來(lái)自知乎網(wǎng)友@桔了個(gè)仔):

ChatGPT創(chuàng)造的價(jià)值其實(shí)遠(yuǎn)超它的能耗。

和某些技術(shù)(咳咳,懂得都懂)的耗電量相比,它可能更不值一提了。

所以,有人(知乎網(wǎng)友@玩吾傷智)直接就表示,這則消息應(yīng)該這么理解:

震驚, 只需要1.7萬(wàn)普通家庭的電量即可滿(mǎn)足ChatGPT的一日用電需求。(手動(dòng)狗頭)

咳咳,有意思的是,上面的答主@段小草還提到了一篇論文,題為《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》,講的是AI在畫(huà)畫(huà)和寫(xiě)作上的碳排放量一個(gè)比人類(lèi)少310到2900倍,一個(gè)比人類(lèi)少130到1500倍。

這樣看來(lái),AI甚至算得上“節(jié)能減排的先鋒”。(手動(dòng)狗頭)

吶,我們還是早點(diǎn)洗洗睡、關(guān)注GPT-5什么時(shí)候發(fā)吧。

03 奧特曼:我們需要可控核聚變

話(huà)又說(shuō)回來(lái),盡管比起收益,ChatGPT一日1.7萬(wàn)個(gè)家庭的能耗還不值一提,但AI能耗確實(shí)也是一個(gè)值得關(guān)注的問(wèn)題。

而這點(diǎn),奧特曼早就在“擔(dān)憂(yōu)”了。

在今年1月的一場(chǎng)達(dá)沃斯會(huì)議中,他就表示:

人工智能的未來(lái)取決于清潔能源的突破。

圖源Digwatch

具體而言,他認(rèn)為:

隨著技術(shù)越來(lái)越成熟,AI將消耗越來(lái)越大量的電力,如果能源技術(shù)無(wú)法突破,就無(wú)法實(shí)現(xiàn)這一目標(biāo)(即讓AI技術(shù)釋放全部潛力)。

而現(xiàn)在,公眾還不是很了解這個(gè)需求究竟有多大,奧特曼本人表示也遠(yuǎn)超他的預(yù)期。

至于如何提升能源產(chǎn)量,他也直言:

需要可控核聚變,或者更便宜的太陽(yáng)能及存儲(chǔ)等等。

說(shuō)起可控核聚變,奧特曼其實(shí)早就押注了一家相關(guān)公司,名叫Helion。

他在它身上投資了3.75億美元,這是他以個(gè)人名義投資的最大一筆。

除此之外,奧特曼的“爸爸”微軟也押注了這家公司。

據(jù)了解,Helion成立于2013年,目前約150+員工。他們預(yù)計(jì)將在2028年上線50兆瓦規(guī)模的可控核聚變發(fā)電項(xiàng)目,微軟將率先采購(gòu)。

明敏 豐色 發(fā)自 凹非寺

量子位 | 公眾號(hào) QbitAI

原報(bào)告:

https://www.cell.com/joule/abstract/S2542-4351(23)00365-3

參考鏈接:

[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_

[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3

[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai

[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy

[5]https://www.zhihu.com/question/647926823

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港