你跟AI說過謝謝嗎?
幾個(gè)月前,OpenAI的CEO山姆·奧特曼(Sam Altman)在推文中提及,對(duì)AI說“請(qǐng)”和“謝謝”或許讓他們花掉了“數(shù)千萬美元”電費(fèi)。巨額電費(fèi)也意味著,AI因?yàn)槿祟惖亩Y貌而消耗了大量的電力資源,變得更不環(huán)保了。
OpenAI的CEO山姆·奧特曼(Sam Altman)在推文中提及,對(duì)AI說“請(qǐng)”和“謝謝”或許讓他們花掉了“數(shù)千萬美元”電費(fèi)。
AI作為工具,可以助力環(huán)保研究和環(huán)保事業(yè),但這個(gè)工具的研發(fā)和運(yùn)營(yíng)卻相當(dāng)耗能。更嚴(yán)重的問題是,我們說不清AI會(huì)造成多少碳排放。
要讓AI變得更環(huán)保,也絕不僅僅是人類不說“請(qǐng)”和“謝謝”那么簡(jiǎn)單。
用一次AI有多少碳排放?
AI工具到底會(huì)消耗多少電能,又會(huì)造成多少碳排放,這其實(shí)是一個(gè)很難回答的問題。
最主要的困難在于信息不透明。提供AI服務(wù)的大公司往往不會(huì)公布詳細(xì)的能耗數(shù)據(jù),研究者經(jīng)常只能通過間接估算進(jìn)行分析——例如,他們有時(shí)會(huì)通過英偉達(dá)服務(wù)器的需求量對(duì)AI能耗規(guī)模進(jìn)行計(jì)算。
這些估算存在很多假設(shè),其結(jié)果的可靠程度也比較有限。有時(shí),不同來源的估算會(huì)得出差異較大的結(jié)論:例如一項(xiàng)估算認(rèn)為,每使用一次ChatGPT平均會(huì)消耗2.9 瓦時(shí)的電力[1],而另一項(xiàng)估算則認(rèn)為每次查詢平均僅需要0.3瓦時(shí)電力[2],二者相差了將近10倍。
一項(xiàng)估算認(rèn)為,每次用ChatGPT查詢平均會(huì)消耗2.9瓦時(shí)電力,耗電量是使用搜索引擎的10倍——但我們很難判斷這些數(shù)字有多準(zhǔn)確 | pexels
除此之外,研究者還有另一種方法獲得數(shù)據(jù):他們可以親自下載并運(yùn)行AI模型,讓它們執(zhí)行標(biāo)準(zhǔn)化的任務(wù),然后測(cè)量由此產(chǎn)生的電能消耗。結(jié)合當(dāng)?shù)仉娋W(wǎng)中火力發(fā)電的占比,人們還可以進(jìn)一步計(jì)算出耗電背后的碳排放。這樣得出的數(shù)據(jù)更加準(zhǔn)確,但它只適用于開源模型,依然不足以揭示AI環(huán)境影響的全貌。
在最近發(fā)表的研究中,德國(guó)科學(xué)家就對(duì)14個(gè)開源大語言模型進(jìn)行了這樣的分析[3]。研究發(fā)現(xiàn),不同模型在回答相同問題時(shí)的能耗與碳排放差異極大,最大與最小的數(shù)據(jù)之間甚至相差了50倍以上。
擴(kuò)大參數(shù)規(guī)模、采用逐步推理可以提升AI的表現(xiàn),但這些因素也增加了運(yùn)算量,導(dǎo)致碳排放大幅增加。在這項(xiàng)研究的測(cè)試范圍內(nèi),碳排放最多的AI模型是Deepseek R1 70B,讓它回答60萬個(gè)問題所產(chǎn)生的碳排放,相當(dāng)于乘飛機(jī)在倫敦與紐約之間往返一次[4]。
目前仍有較大比例的電能來自火力發(fā)電,因此運(yùn)行AI模型在耗電的同時(shí)也會(huì)產(chǎn)生間接的二氧化碳排放 | Wikipedia
單次使用AI的碳排放并不算大,但考慮到熱門AI工具有著上億規(guī)模的訪問量,相關(guān)碳排放總數(shù)依然相當(dāng)可觀。在此之外,AI模型的訓(xùn)練、硬件生產(chǎn)、服務(wù)器冷卻等環(huán)節(jié)還有很多額外的環(huán)境成本——但由于數(shù)據(jù)不足,這些成本的總和究竟有多大同樣是個(gè)謎。
整體不高,但局部影響大
AI模型的計(jì)算工作通常在大型數(shù)據(jù)中心完成。隨著AI的迅速擴(kuò)張,近幾年數(shù)據(jù)中心用電需求快速增長(zhǎng),不過它在全球能源消耗和碳排放中的占比還比較小。
根據(jù)國(guó)際能源署(IEA)的統(tǒng)計(jì),2024年數(shù)據(jù)中心的用電總量約為415太瓦時(shí)(TWh),占到全球用電總量的1.5%。供應(yīng)這些電力產(chǎn)生的二氧化碳排放約為1.8億噸,約占燃燒排放總量的0.5%[5]。
根據(jù)該機(jī)構(gòu)的估計(jì),到2030年,數(shù)據(jù)中心的用電量可能會(huì)翻一番,達(dá)到約945太瓦時(shí)。雖然漲幅驚人,但在全球電力消耗總量中,它依然只占了大約3%[5]。
不過,數(shù)據(jù)中心有“扎堆”的特性,因此哪怕總量看起來不高,局部地區(qū)受到的影響仍可能會(huì)非常顯著。企業(yè)往往傾向于將數(shù)據(jù)中心建設(shè)得非常密集,這樣有利于高效傳輸信息,還可以共享電力與冷卻設(shè)施。這樣做非常方便,但可能會(huì)給局部供電帶來巨大的壓力。
與煉鋼廠等傳統(tǒng)的高耗能設(shè)施相比,數(shù)據(jù)中心在空間上更加密集 | cisco
在一些地方,數(shù)據(jù)中心的影響比全球平均值要高得多。例如,美國(guó)弗吉尼亞州目前已有340個(gè)數(shù)據(jù)中心。據(jù)研究機(jī)構(gòu)統(tǒng)計(jì),這些數(shù)據(jù)中心的用電量占到了該州電力消耗總量的四分之一以上[6]。
在這里,數(shù)據(jù)中心的建設(shè)仍在快速推進(jìn),電力不足的跡象也開始顯現(xiàn)。AI帶來的電力需求缺口可能要靠新建大型燃?xì)獍l(fā)電廠才能解決——而這樣一來,碳排放自然也會(huì)隨之增加。
為AI減碳,不說謝謝有用嗎?
在談?wù)摐p少AI碳排放時(shí),不少人都會(huì)提議從不對(duì)AI說“謝謝”做起,這種說法確實(shí)有些道理。
大語言模型在接到用戶輸入指令時(shí),會(huì)將文字拆分成許多基本的“詞元”(token)來分析。需要處理的詞元數(shù)量決定了AI的工作量,因此也與能耗和碳排放密切相關(guān)。如果能減少“謝謝”這樣可有可無的文字,就能讓詞元量減少一點(diǎn),讓AI在執(zhí)行任務(wù)時(shí)少費(fèi)一點(diǎn)電。
不過,比起一句客套話,對(duì)碳排放影響更大的可能還是AI的推理模式。上面提到的新研究發(fā)現(xiàn):?jiǎn)⒂弥鸩酵评淼拇笳Z言模型,碳排放達(dá)到了其他模型的4-6倍[3]。這是因?yàn)?,在展現(xiàn)逐步“思考”過程時(shí),AI模型會(huì)生成額外的文字,它們需要處理的詞元數(shù)量也會(huì)大幅增加。
精簡(jiǎn)提問、謹(jǐn)慎地選擇AI模型,這對(duì)減少碳排放有些幫助;不過,這個(gè)問題終歸不能只靠約束使用者來解決。提升AI效率、更多使用清潔能源發(fā)電、合理布局?jǐn)?shù)據(jù)中心才是解決AI環(huán)境危機(jī)的根本途徑,而這些措施都需要企業(yè)與政府的共同努力。
參考文獻(xiàn)
[1]https://www.sciencedirect.com/science/article/pii/S2542435123003653
[2]https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use
[3]https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full
[4]https://www.eurekalert.org/news-releases/1086116
[5]https://www.iea.org/reports/energy-and-ai
[6]https://www.nature.com/articles/d41586-025-00616-z
作者:窗敲雨
編輯:麥麥
題圖來源:pexels
本文來自果殼自然(ID:GuokrNature)
如需轉(zhuǎn)載請(qǐng)聯(lián)系sns@guokr.com
Guokr
9月8日晚19點(diǎn),果殼x羅萊家紡 秋冬上新專場(chǎng)來啦!
家紡國(guó)貨品牌送福利啦,買鵝絨被直接送新疆棉四件套!養(yǎng)膚級(jí)桑蠶絲被,買一得三!還有更多福利品:家居服、深睡枕、四件套、夏冬被等全場(chǎng)低至99元!還有超值滿贈(zèng)、秒殺、福袋發(fā)不停!
一定一定要預(yù)約!!
關(guān)于我們|版權(quán)聲明| 違法和不良信息舉報(bào)電話:010-84151598 | 網(wǎng)絡(luò)敲詐和有償刪帖舉報(bào)電話:010-84151598
Copyright ? 2008-2024 by {當(dāng)前域名}. all rights reserved