歡迎來(lái)訪(fǎng)江蘇帕卓管路系統股份有限公司 官方網(wǎng)站!
歡迎來(lái)訪(fǎng)江蘇帕卓管路系統股份有限公司 官方網(wǎng)站!
剛剛過(guò)去的周末,光伏、儲能行業(yè)迎來(lái)重磅利好消息:摩根士丹利調高寧德時(shí)代目標價(jià),在黃仁勛、奧特曼兩位大佬加持下“儲能與AI”的故事發(fā)酵。
圖片來(lái)源網(wǎng)絡(luò )
摩根士丹利調高寧德時(shí)代目標價(jià)
3月10日,摩根士丹利發(fā)布報告,將中國電池巨頭寧德時(shí)代(CATL)的評級上調至“超配”,并設定目標價(jià)為210元人民幣。在報告中,摩根士丹利分析師指出,寧德時(shí)代作為全球領(lǐng)先的電池制造商,受益于電動(dòng)汽車(chē)市場(chǎng)的快速增長(cháng)和電池需求的攀升。
摩根士丹利發(fā)布報告指出,隨著(zhù)價(jià)格戰接近尾聲,寧德時(shí)代準備通過(guò)新一代大規模生產(chǎn)線(xiàn)提高成本效率,并擴大在凈資產(chǎn)收益率方面的優(yōu)勢,看到寧德時(shí)代在基本面上的多個(gè)拐點(diǎn),上調公司評級至超配,并選為行業(yè)首選。
另外,據央視網(wǎng)10日報道,寧德時(shí)代董事長(cháng)曾毓群在采訪(fǎng)時(shí)談到了近期多家歐美車(chē)企削減或推遲電動(dòng)化的話(huà)題,“歐美車(chē)企沒(méi)有回歸燃油車(chē),也沒(méi)有停止(電動(dòng)汽車(chē)),可能是因為不賺錢(qián),所以往后延遲一陣?!?/p>
從儲能業(yè)務(wù)來(lái)看,寧德時(shí)代是當之無(wú)愧的王者。國海證券預計,該公司2023年動(dòng)力和儲能電池的出貨量達380GWh以上,同比增長(cháng)31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同比增長(cháng)14%以上,環(huán)比增長(cháng)10%以上。按四季度中值計算,假設公司的電池業(yè)務(wù)利潤貢獻在90%,則測算公司單Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。
黃仁勛、奧特曼:AI的盡頭是光伏和儲能
消息面上,在算力爆炒之后,“儲能+AI”的故事在剛剛過(guò)去的這個(gè)周末發(fā)酵了。據報道,英偉達CEO黃仁勛在一次公開(kāi)演講中指出,AI未來(lái)發(fā)展與狀和儲能緊密相連。黃仁勛在演講中明確表示:“AI的盡頭是光伏和儲能!我們不能只想著(zhù)算力,如果只考慮計算機,我們需要燒掉14個(gè)地球的能源?!?/p>
早在2月27日,就有人在社交視頻上講“儲能與AI”的故事,引用的也是所謂“黃仁勛的演講”。與此同時(shí),OpenAI的創(chuàng )始人山姆·奧特曼也提出了類(lèi)似的看法。奧特曼表示,“未來(lái)AI的技術(shù)取決于能源,我們需要更多的光伏和儲能?!?/p>
ChatGPT日耗電超50萬(wàn)度
人工智能技術(shù)的快速發(fā)展,帶來(lái)了巨大的算力和能源消耗。據《紐約客》雜志報道,ChatGPT日耗電超50萬(wàn)度,相當于1.7萬(wàn)個(gè)美國家庭,以響應用戶(hù)的約2億個(gè)請求。
*近,在博世互聯(lián)2024大會(huì )上,馬斯克遠程連線(xiàn)接受了博世CEO和董事長(cháng)的采訪(fǎng)。馬斯克提到人工智能的發(fā)展速度前所未見(jiàn),似乎每過(guò)6個(gè)月的時(shí)間,算力就會(huì )增加10倍,遠遠超出了摩爾定律每18個(gè)月翻番的速度。他預計,兩年內年將由“缺硅”變?yōu)椤叭彪姟?,而這可能阻礙AI的發(fā)展。
“目前算力增長(cháng)已經(jīng)面臨瓶頸,很明顯,接下來(lái)變壓器會(huì )陷入短缺,緊接著(zhù)就是電力,等到2025年,我們將沒(méi)有足夠的電力來(lái)運行所有的芯片?!瘪R斯克稱(chēng)。
事實(shí)上,馬斯克對電力短缺的擔憂(yōu)也不是一天兩天了,此前曾多次公開(kāi)強調解決日益增長(cháng)的電力需求的緊迫性。他認為,需要加快項目進(jìn)度,以跟上不斷增長(cháng)的電力需求。
我國臺灣地區4月電價(jià)調漲箭在弦上,“電價(jià)工作小組”3月12日起將連開(kāi)4場(chǎng)討論會(huì )。其中民生用電擬分三級距調漲,*小漲幅700度(或500度)以下約漲5%,701~1000度約漲7%,1001度以上漲約10%;產(chǎn)業(yè)用電依產(chǎn)業(yè)別分三級距調漲,但連二年用電成長(cháng)、用電50億度以上“超級大戶(hù)”以公司別來(lái)看,調幅*高上看近3成,臺積電首當其沖;但用電衰退面板、石化、鋼鐵,漲幅較小。4月電價(jià)方案平均漲幅在10~15%。
波士頓咨詢(xún)公司就曾分析稱(chēng),預計2030年左右,美國數據中心的電力消耗將較2022年增長(cháng)三倍,相當于電力總需求的7.5%,會(huì )大幅提升社會(huì )用電量。
咨詢(xún)公司Grid Strategies也曾發(fā)布過(guò)一項研究,認為美國未來(lái)五年的年度電力需求增長(cháng)大約在1.5%左右。而根據EIA的數據,美國發(fā)電量近15年來(lái)才增加了不到3%。過(guò)慣了供需相對穩定日子的美國供電體系,和面臨不少問(wèn)題的電網(wǎng),能否應對驟然增長(cháng)的需求,尚有待觀(guān)察。
從儲能業(yè)務(wù)來(lái)看,寧德時(shí)代是當之無(wú)愧的王者。國海證券預計,該公司2023年動(dòng)力和儲能電池的出貨量達380GWh以上,同比增長(cháng)31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同比增長(cháng)14%以上,環(huán)比增長(cháng)10%以上。按四季度中值計算,假設公司的電池業(yè)務(wù)利潤貢獻在90%,則測算公司單Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。
AI大模型下的液冷發(fā)展趨勢
摘要
液冷是一種用液體來(lái)冷卻電子設備的散熱技術(shù),能夠顯著(zhù)提高數據中心散熱效率。液冷技術(shù)根據冷卻液與發(fā)熱器件的接觸方式不同,可以分為間接液冷和直接液冷,其中間接液冷主要包括冷板式液冷,直接液冷包括浸沒(méi)式液冷和噴淋式液冷。冷板式液冷和浸沒(méi)式液冷是目前主流的液冷形式,冷板式液冷應用*為廣泛,在改造成本、可維護性、兼容性方面具備優(yōu)勢;浸沒(méi)式液冷冷卻效果*好,節能性上優(yōu)勢明顯,但可維護性和兼容性一般,多用于高功率密度機柜。
控制當前數據中心溫控方式仍以風(fēng)冷為主,液冷方案中冷板式技術(shù)更為普及。2022年數據中心液冷技術(shù)的滲透率大概在5%~8%左右,風(fēng)冷仍然占據90%以上的市場(chǎng)份額。按照服務(wù)器出貨量口徑統計,2023H1我國冷板式液冷服務(wù)器比例為90%左右,浸沒(méi)式液冷滲透率為10%。
數據中心算力與能耗水漲船高,逐漸超出風(fēng)冷散熱閾值,液冷散熱已是趨勢所向。Chatgpt為代表的生成式人工智能模型拉升算力需求,百億參數成為模型涌現門(mén)檻,算力成為大模型性能提升的關(guān)鍵。大模型帶來(lái)大算力,大算力帶來(lái)高功耗,Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100系列GPU芯片TDP更是達到700W。這也導致單服務(wù)器和單機柜功率均顯著(zhù)上升,已經(jīng)逐漸超出風(fēng)冷散熱的覆蓋范圍,液冷散熱已成為必然趨勢。
PUE限制是現階段液冷技術(shù)發(fā)展的核心驅動(dòng)力。PUE代表數據中心能源使用效率,等于數據中心總耗電/IT設備耗電,比值越接近于1,說(shuō)明能源越接近全部都用于IT設備負載上。我國數據中心平均PUE為1.49,仍有半數區域的數據中心PUE位于1.5以上。近幾年,國家與地方出臺了一系列針對新建與老舊數據中心PUE的管控計劃,明確要求東、西部樞紐節點(diǎn)數據中心PUE分別控制在1.25、1.2以下。而傳統風(fēng)冷方案的數據中心PUE一般在1.5左右,高于政策要求的范圍;液冷方案能夠有效降低冷卻系統的能耗水平,從而將數據中心整體PUE降低到1.05-1.2左右,滿(mǎn)足相關(guān)的政策要求。
數據中心TCO是液冷技術(shù)規模應用的關(guān)鍵因素。數據中心總成本(TCO)包括建設成本(Capex)和運營(yíng)成本(Opex)。根據奕信通科技在2022年數據中心標準峰會(huì )發(fā)布的報告進(jìn)行測算,以華東地區數據中心建設情況為例,現階段冷板式液冷方案的TCO甚至Capex已經(jīng)低于風(fēng)冷,浸沒(méi)式液冷方案的TCO也將在運行五年左右之后出現低于風(fēng)冷方案的拐點(diǎn)。但是該測算結果依賴(lài)于一定的前提條件:如機柜功率達到30KW、不計算服務(wù)器折舊和服務(wù)器運營(yíng)支出、水電費與房租等運營(yíng)成本按華東地區情況計價(jià)、采用集中式大型IDC機房且IT設備在12個(gè)月線(xiàn)性上架后實(shí)現80%負載率、外界氣溫對制冷系統的能耗需求較高等。因此在西北部地區、較小型數據中心等場(chǎng)景下液冷技術(shù)的經(jīng)濟性尚沒(méi)有完全體現。但在數據中心發(fā)展的大型化、集約化的趨勢下,且液冷方案仍存在每年降本5-10%的空間,再考慮到液冷方案能夠有效延長(cháng)服務(wù)器使用壽命,未來(lái)液冷數據中心TCO的優(yōu)勢將更加明顯。
控制數據中心液冷未來(lái)市場(chǎng)規模估算:到2025年,中國數據中心液冷市場(chǎng)規模將達到359億元左右,CAGR達到72.4%;AI數據中心液冷市場(chǎng)規模將達到280億元左右,CAGR達到71.4%;通用數據中心液冷市場(chǎng)規模將達到79億元,CAGR達到76.2%。
1液冷技術(shù)詳解
液冷是一種用液體來(lái)冷卻電子設備的散熱技術(shù)。液冷的工作原理是以液體作為冷媒,利用液體的高熱容和高熱傳導性能,通過(guò)液體流動(dòng)將IT設備的內部元器件產(chǎn)生的熱量傳遞到設備外,使IT設備的發(fā)熱器件得到冷卻,以保證IT設備在安全溫度范圍內運行(本文主要討論數據中心應用場(chǎng)景下的液冷技術(shù))。根據冷卻液與發(fā)熱器件的接觸方式不同,可以分為間接液冷和直接液冷。間接液冷是指服務(wù)器熱源與冷卻液之間沒(méi)有直接接觸的換熱過(guò)程,以冷板式液冷技術(shù)為主。直接液冷是指將發(fā)熱部件與冷卻液直接接觸的冷卻方式,包括浸沒(méi)式和噴淋式液冷技術(shù)。其中又可以根據冷卻液是否會(huì )發(fā)生液態(tài)到氣態(tài)的轉變,將浸沒(méi)式液冷分為單相浸沒(méi)式液冷和雙相浸沒(méi)式液冷。當前,冷板式液冷和浸沒(méi)式液冷為液冷的主要形式。
液冷系統通用架構包括室外側和室內側兩部分:室外側包含冷卻塔、一次側管網(wǎng)、一次側冷卻液;室內側包含 CDU、液冷機柜、ICT 設備、二次側管網(wǎng)和二次側冷卻液。室外側為外部冷源,通常為室外的冷水機組、冷卻塔或干冷器,熱量轉移主要通過(guò)水溫的升降實(shí)現;室內側包括供液環(huán)路和服務(wù)器內部流道,主要通過(guò)冷卻液溫度的升降實(shí)現熱量轉移;兩個(gè)部分通過(guò)CDU中的板式換熱器發(fā)生間壁式換熱。
1.1 冷板式液冷
冷板式液冷屬于間接液冷,冷卻液不與服務(wù)器芯片直接接觸。冷板式液冷也被稱(chēng)作芯片級液冷,技術(shù)原理是通過(guò)在服務(wù)器組件(如 CPU、GPU等高發(fā)熱部件)上安裝液冷板(通常為銅鋁等導熱金屬構成的封閉腔體),服務(wù)器組件通過(guò)導熱部件將熱量傳導到液冷板上,然后利用液冷板內部的液體循環(huán)將熱量傳遞到遠離服務(wù)器的散熱單元;同時(shí)一般會(huì )增設風(fēng)冷單元為低發(fā)熱元件進(jìn)行散熱。
冷板式液冷系統主要由冷卻塔、CDU、一次側 & 二次側液冷管路、冷卻介質(zhì)、液冷機柜組成;其中液冷機柜內包含液冷板、設備內液冷管路、流體連接器、分液器等。
1.2 浸沒(méi)式液冷
浸沒(méi)式液冷屬于直接液冷,將發(fā)熱器件浸沒(méi)在冷卻液中進(jìn)行熱交換,依靠冷卻液流動(dòng)循環(huán)帶走熱量。
浸沒(méi)式液冷系統室外側包含冷卻塔、一次側管網(wǎng)、一次側冷卻液;室內側包含 CDU、浸沒(méi)腔體、IT 設備、二次側管網(wǎng)和二次側冷卻液。使用過(guò)程中 IT設備完全浸沒(méi)在二次側冷卻液中,因此二次側循環(huán)冷卻液需要采用不導電液體,如礦物油、硅油、氟化液等。
浸沒(méi)式液冷根據冷卻液換熱過(guò)程中是否發(fā)生相變,可以進(jìn)一步分為單相浸沒(méi)式液冷和雙相浸沒(méi)式液冷技術(shù)。
1.2.1 單相浸沒(méi)式液冷
在單相浸沒(méi)式液冷中,冷卻液在熱量傳遞過(guò)程中僅發(fā)生溫度變化,而不存在相態(tài)轉變。單相浸沒(méi)式液冷的技術(shù)原理為:CDU循環(huán)泵驅動(dòng)二次側低溫冷卻液由浸沒(méi)腔體底部進(jìn)入,流經(jīng)豎插在浸沒(méi)腔體中的IT設備時(shí)帶走發(fā)熱器件熱量;吸收熱量升溫后的二次側冷卻液由浸沒(méi)腔體頂部出口流回CDU;通過(guò)CDU內部的板式換熱器將吸收的熱量傳遞給一次側冷卻液;吸熱升溫后的一次側冷卻液通過(guò)外部冷卻裝置(如冷卻塔)將熱量排放到大氣環(huán)境中,完成整個(gè)冷卻過(guò)程。
1.2.2 雙相浸沒(méi)式液冷
雙相浸沒(méi)式液冷的不同之處在于冷卻液會(huì )發(fā)生相態(tài)轉變。雙相浸沒(méi)式液冷的傳熱路徑與單相浸沒(méi)液冷基本一致,主要差異在于二次側冷卻液僅在浸沒(méi)腔體內部循環(huán)區域,浸沒(méi)腔體內頂部為氣態(tài)區、底部為液態(tài)區;IT設備完全浸沒(méi)在低沸點(diǎn)的液態(tài)冷卻液中,液態(tài)冷卻液吸收設備熱量后發(fā)生沸騰,汽化產(chǎn)生的高溫氣態(tài)冷卻液因密度較小,會(huì )逐漸匯聚到浸沒(méi)腔體頂部,與安裝在頂部的冷凝器發(fā)生換熱后冷凝為低溫液態(tài)冷卻液,隨后在重力作用下回流至腔體底部,實(shí)現對IT設備的散熱。
1.3 淋式液冷
噴淋式液冷屬于直接液冷,將冷卻液精準噴灑于電子設備器件進(jìn)行散熱。冷卻液借助特制的噴淋板精準噴灑至發(fā)熱器件或與之相連接的固體導熱材料上,并與之進(jìn)行熱交換,吸熱后的冷卻液換熱后將通過(guò)回液管、回液箱等集液裝置進(jìn)行收集并通過(guò)循環(huán)泵輸送至CDU進(jìn)行下一次制冷循環(huán)。
噴淋式液冷系統主要由冷卻塔、CDU、一次側 & 二次側液冷管路、冷卻介質(zhì)和噴淋式液冷機柜組成;其中噴淋式液冷機柜通常包含管路系統、布液系統、噴淋模塊、回液系統等。
1.4 不同液冷方案的比較
1.4.1 冷板式液冷目前應用*為廣泛,在改造成本、可維護性、兼容性方面具備優(yōu)勢
冷板式液冷的優(yōu)勢主要在于:
1)兼容性:冷板式液冷的改造成本相對較低,不需要對數據中心現有的機房及機柜進(jìn)行大規模改造,其適用的硬盤(pán)、光模塊等服務(wù)器部件與風(fēng)冷方案一致,運維模式、機房承重與風(fēng)冷場(chǎng)景也基本一致;
2)散熱效果與節能性:冷卻效果和節能性要遠好于風(fēng)冷,PUE可以達到1.2左右;(據《綠色高能效數據中心散熱冷卻技術(shù)研究現狀及發(fā)展趨勢》數據顯示,風(fēng)冷散熱下數據中心的 PUE 值通常在1.5左右)
3)可靠性:液體與設備不直接接觸,可靠性更高;
4)維護性:易開(kāi)展維護性設計,可實(shí)現在線(xiàn)維護方案;
5)噪聲:風(fēng)機轉速大幅降低,噪聲值可至 70dB 左右。
冷板式液冷的局限性主要在于:
1)液體沒(méi)有與電子器件直接接觸,而是通過(guò)金屬管壁進(jìn)行熱交換,與直接接觸的浸沒(méi)式液冷相比冷卻與節能效果欠佳;
2)IT設備、冷卻液、管路、供配電等不統一,服務(wù)器多與機柜深耦合;
3)管路接頭、密封件較多,漏液維護復雜。
1.4.2 浸沒(méi)式液冷的散熱效果和節能性?xún)?yōu)勢明顯,但兼容性和維護性一般,多用于高功率密度機柜
浸沒(méi)式液冷的優(yōu)勢主要在于:
1)散熱效果與節能性:與冷板式液冷相比,浸沒(méi)式液冷中采用了直接接觸式的熱交換,傳熱系數高,冷卻效果更好,節能性更強(雙相浸沒(méi)式液冷方案的PUE在1.04-1.07左右,單相浸沒(méi)式為1.09左右)
2)緊湊:支持高密機柜,單柜散熱量高達160kW;同時(shí),機柜間無(wú)需隔開(kāi)距離,機房不需要空調和冷凍機組、無(wú)需架空地板、無(wú)需安裝冷熱通道封閉設施;
3)可靠性:設備完全浸沒(méi)在液體中,排除了溫度、風(fēng)機振動(dòng)、灰塵等帶來(lái)的可靠性問(wèn)題;
4)噪聲:100%液體冷卻,無(wú)需配置風(fēng)扇,實(shí)現**“靜音”機房。
浸沒(méi)式液冷的局限性主要在于:
1)兼容性較差:IT設備需要定制,光模塊、硬盤(pán)等部件兼容性仍待驗證;此外,雙相浸沒(méi)式液冷方案適配的服務(wù)器需改為刀片式,其專(zhuān)用機柜對于管路要求高,控制復雜;
2)維護復雜:浸沒(méi)式液冷設備維護時(shí)需要打開(kāi)Tank上蓋,并配備可移動(dòng)機械吊臂或專(zhuān)業(yè)維護車(chē)實(shí)現設備的豎直插拔,維護復雜度高,耗時(shí)長(cháng);且開(kāi)蓋維護過(guò)程有一定的冷卻液揮發(fā)問(wèn)題,增加運行成本;
3)承重要求高:因浸沒(méi)式液冷系統Tank內充滿(mǎn)冷卻液,整柜重量大幅增加,對機房有特殊承重要求,普遍要求浸沒(méi)式液冷機房地板承重應大于1500kg/m2;
4)國產(chǎn)冷媒待驗證:?jiǎn)蜗嘟](méi)式液冷方案所使用的國產(chǎn)冷媒仍待驗證。
浸沒(méi)式液冷比較適用于對功率密度、節能性要求較高的大型數據中心,特別是地理位置較為特殊、空間有限的數據中心。
1.4.3 噴淋式液冷在安裝便利性、空間利用等方面有優(yōu)勢,但是現階段落地應用相對較少
噴淋式液冷不需要對數據中心基礎設施進(jìn)行大幅改動(dòng),安裝便捷,空間利用率高,且噴淋方式能夠節省冷卻液,其不足在于服務(wù)器整體密封于氣相柜中,排液、補液,維護時(shí)會(huì )破壞服務(wù)器原有密封結構。目前噴淋式液冷技術(shù)的應用場(chǎng)景有限,只有少量數據中心采用了噴淋式液冷技術(shù)。
2 數據中心液冷行業(yè)基本情況與競爭格局
2.1 基本情況:數據中心液冷行業(yè)如日方升,液冷技術(shù)有望加速導入
數據中心溫控方式仍以風(fēng)冷為主,液冷技術(shù)有望加速導入。目前數據中心的散熱方式仍然以風(fēng)冷為主,在算力設備以及數據中心機房的高熱密度趨勢和高能效散熱要求的雙重推動(dòng)下,預計未來(lái)液冷將成為主流的數據中心溫控方式。根據產(chǎn)業(yè)調研與曙光數創(chuàng )的信息,2022年數據中心液冷技術(shù)的滲透率大概在5%~8%左右,風(fēng)冷仍然占據90%以上的市場(chǎng)份額;預計2025-2028年時(shí)液冷技術(shù)的滲透率有望達到30%。
液冷方式以冷板式為主,浸沒(méi)式技術(shù)有望加速推廣。當前主流的液冷技術(shù)包括冷板式液冷和浸沒(méi)式液冷,由于冷板式液冷對于數據中心的改造難度較低,改造所需成本也較為可控,所以目前冷板式液冷的市場(chǎng)應用相對更加普及。根據IDC《中國半年度液冷服務(wù)器市場(chǎng)(2023上半年)跟蹤》報告,按照服務(wù)器出貨量口徑統計,2023H1我國冷板式液冷服務(wù)器比例達到90%左右,浸沒(méi)式液冷滲透率僅為10%。但隨著(zhù)國家對于數據中心PUE的政策要求的愈發(fā)嚴格,機柜功率密度的持續抬升以及浸沒(méi)式液冷技術(shù)的逐漸成熟,浸沒(méi)式液冷方案有望進(jìn)入加速推廣期。
2.2 產(chǎn)業(yè)鏈:涉及環(huán)節眾多,存在較高進(jìn)入壁壘
液冷產(chǎn)業(yè)鏈涉及環(huán)節眾多,包括上游的液冷設備及產(chǎn)品零部件提供商、中游的液冷服務(wù)器及液冷基礎設施提供商與下游的數據中心使用者。上游主要為產(chǎn)品零部件及液冷設備,包括快速接頭、CDU、電磁閥、浸沒(méi)液冷TANK、manifold、冷卻液等產(chǎn)品,代表性廠(chǎng)商有英維克、3M、高瀾股份、云酷、奕信通、廣東合一、綠色云圖、巨化股份等。中游主要為液冷服務(wù)器、芯片廠(chǎng)商以及液冷集成設施、模塊與機柜等,代表性廠(chǎng)商有華為、中興、浪潮、曙光、新華三、聯(lián)想、超聚變、英特爾等。下游主要為數據中心的使用者,包括三家電信運營(yíng)商,百度、阿里巴巴、騰訊、京東等互聯(lián)網(wǎng)企業(yè),數據港、光環(huán)新網(wǎng)等第三方IDC服務(wù)商以及政府、科研機構、金融、能源、交通等其他信息化需求客戶(hù)。
產(chǎn)業(yè)鏈存在較高的技術(shù)、人才、客戶(hù)認證壁壘。
1)技術(shù)壁壘:液冷數據中心基礎設施產(chǎn)品的研發(fā)和制造涉及冷卻技術(shù)、制冷系統設計及仿真技術(shù)、溫濕度解耦控制算法等多項技術(shù)領(lǐng)域,要求企業(yè)在液冷核心技術(shù)進(jìn)行多年研究積累,深入掌握液冷技術(shù)的相關(guān)原理和應用。此外,液冷數據中心基礎設施產(chǎn)品工藝流程復雜,需要掌握生產(chǎn)制造流程中的核心工藝,同時(shí)需具備成熟的控制體系,對產(chǎn)品質(zhì)量進(jìn)行把控,保證產(chǎn)品的合格率,因此數據中心液冷行業(yè)具有較高的技術(shù)壁壘。
2)人才壁壘:液冷數據中心基礎設施領(lǐng)域屬于新興技術(shù)密集型產(chǎn)業(yè),產(chǎn)品性能涉及材料化學(xué)、熱力學(xué)、電子學(xué)、計算機科學(xué)等多學(xué)科,并且數據中心的制冷系統存在定制化特征,因此對研發(fā)技術(shù)人員的技術(shù)研發(fā)能力和行業(yè)經(jīng)驗要求較高。目前行業(yè)發(fā)展歷程較短,技術(shù)與產(chǎn)品仍處于驗證階段,高端技術(shù)人才相對稀缺,且高端人才主要集中規模較大的企業(yè)以及***研究機構中,因此新進(jìn)企業(yè)難以在短期內培養出一批具備技術(shù)開(kāi)發(fā)實(shí)力并擁有豐富實(shí)踐項目經(jīng)驗的專(zhuān)業(yè)技術(shù)隊伍,由此數據中心液冷行業(yè)存在較高的專(zhuān)業(yè)人才壁壘。
3)客戶(hù)認證壁壘:出于安全性、穩定性等考慮,企業(yè)客戶(hù)在選擇液冷數據中心基礎設施供應商時(shí)通常需要進(jìn)行嚴格的資質(zhì)驗證。尤其是金融、醫藥等機構出于數據安全、保密等要求,對液冷數據中心基礎設施解決方案供應商挑選非常嚴格,需要對企業(yè)產(chǎn)品質(zhì)量水平、項目經(jīng)驗、技術(shù)研發(fā)能力進(jìn)行綜合考察,因此認證過(guò)程復雜且耗時(shí)較長(cháng)。液冷數據中心基礎設施廠(chǎng)商應具備較強的產(chǎn)品研發(fā)能力、穩定的產(chǎn)品供應以及售后服務(wù)經(jīng)驗,同時(shí)具備豐富的技術(shù)儲備,才能滿(mǎn)足不同客戶(hù)的需求。另一方面,由于更換液冷數據中心基礎設施供應商會(huì )對產(chǎn)品的穩定性形成風(fēng)險,客戶(hù)在與液冷數據中心基礎設施供應商建立生產(chǎn)配套關(guān)系后,傾向于維持與現有技術(shù)供應商的合作,不會(huì )輕易更換主要供應商,因此先進(jìn)入者一旦建立起自身客戶(hù)資源、形成先發(fā)優(yōu)勢,新進(jìn)入企業(yè)將很難在短期內爭奪市場(chǎng)份額、改變行業(yè)現有格局,因此數據中心液冷行業(yè)具有較高的客戶(hù)認證門(mén)檻。
2.3 競爭格局:行業(yè)仍處于技術(shù)驗證階段,市場(chǎng)格局尚不明確
目前液冷行業(yè)仍處于技術(shù)驗證階段,技術(shù)路線(xiàn)、產(chǎn)品結構、行業(yè)標準等還無(wú)定數,國外廠(chǎng)商難以進(jìn)入中國市場(chǎng),市場(chǎng)競爭格局尚不明確。目前市場(chǎng)中主要廠(chǎng)商在液冷技術(shù)和產(chǎn)品方面還處于實(shí)驗研究或初步應用階段,產(chǎn)品結構與行業(yè)標準尚在演進(jìn),市場(chǎng)內還未形成具備較強核心競爭力的龍頭廠(chǎng)商,市場(chǎng)競爭格局尚未穩定。此外,由于中國對數據安全的保護,在數據中心基礎設施的供應方面存在一定的地域壁壘,因此,目前國外廠(chǎng)商的產(chǎn)品的應用主要以其本國市場(chǎng)為主,進(jìn)入中國市場(chǎng)較為困難。
3 數據中心液冷行業(yè)未來(lái)看點(diǎn)
3.1 推理/訓練服務(wù)器功耗有望達到10/2kW,液冷方案成為首選
生成式人工智能橫空出世,助推AI算力景氣度。受ChatGPT為代表的生成式人工智能大模型等新業(yè)態(tài)帶動(dòng),全新的AI應用場(chǎng)景有望在未來(lái)3-5年爆發(fā),百億參數是大模型具備涌現能力的門(mén)檻,千億參數的大模型將具備較好的涌現能力,AI算力成為大模型能力提升的核心驅動(dòng)力?,F階段ChatGPT的總算力消耗達到了3640PF-day(每秒計算一千萬(wàn)億次,需要計算3640天),需要7-8個(gè)投資規模30億元,算力500P的超大數據中心才能支撐其訓練過(guò)程,AI算力的重要性不言而喻。據IDC預測,全球AI算力市場(chǎng)規模將從2022年的195.0億美元增長(cháng)到2026年的346.6億美元,其中生成式AI算力市場(chǎng)規模將從2022年的8.2億美元增長(cháng)到2026年的109.9億美元,生成式AI算力占整體AI算力市場(chǎng)規模的比例將從4.2%增長(cháng)到31.7%。
大模型帶來(lái)高算力,高算力帶來(lái)高功耗。隨著(zhù)AI計算、HPC計算等高性能計算需求不斷提升,CPU、GPU等計算芯片朝高算力、高集成方向演進(jìn),同時(shí)也導致單顆計算芯片功耗的大幅提升。對于CPU、GPU、ASIC等計算芯片而言,一方面可以通過(guò)增加計算核心數或提高單核心的主頻等方式來(lái)提高算力,此舉會(huì )顯著(zhù)增加芯片的TDP(熱設計功耗);另一方面可以依靠先進(jìn)制程技術(shù)來(lái)縮減單位算力對應的TDP(TDP/算力)。但是由于先進(jìn)制程技術(shù)推進(jìn)較慢等因素,單位算力對應TDP的下降幅度逐年減少,且遠不及算力的增長(cháng)速度,這也導致了AI芯片功耗的大幅攀升。當前,Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100系列GPU芯片的TDP更高達700W。
計算芯片高功耗造成單服務(wù)器功耗顯著(zhù)提高。單服務(wù)器功耗大部分源于計算芯片,服務(wù)器的核心組件包括CPU(中央處理器)、GPU(圖形處理器)、內存芯片、SSD(固態(tài)硬盤(pán))、網(wǎng)卡、PCB主板、RAID卡、HBA卡和電源等。CPU/GPU等計算芯片在通用服務(wù)器功耗中占比約為50%左右,而在A(yíng)I服務(wù)器中,計算芯片的功耗占比高達80%以上。我們參考2022-2023年中國電信集采AI服務(wù)器配置與阿里云通用服務(wù)器配置進(jìn)行功耗計算,服務(wù)器的功耗可以粗略估計為所有組件的功耗總和;選取超聚變FusionServer 2288 V7作為通用服務(wù)器的代表型號,超聚變FusionServer G5500 V6作為AI訓練服務(wù)器的代表型號,超聚變FusionServer G8600 V7作為AI推理服務(wù)器的代表型號。
通過(guò)我們的測算,通用服務(wù)器的總功耗為595W,AI訓練服務(wù)器的總功耗為7015W,AI推理服務(wù)器的總功耗為1615W。但是由于芯片超頻,額外的NVLINK模組等因素的存在,計算芯片的實(shí)際滿(mǎn)載功耗往往會(huì )高于官方標定的功耗。以上因素導致服務(wù)器的實(shí)際功耗可能會(huì )高于各組件的總功耗,具體的功耗還要以實(shí)際測試為準。根據超聚變服務(wù)器功耗計算器的測算,當前配置下的通用服務(wù)器的實(shí)際滿(mǎn)載功耗為700W左右,AI訓練服務(wù)器的實(shí)際滿(mǎn)載功耗為9800W左右,AI推理服務(wù)器的實(shí)際滿(mǎn)載功耗為2000W左右。(該過(guò)程僅為根據公開(kāi)資料的估算,請以實(shí)際環(huán)境和負載下的測算為準)
隨著(zhù)服務(wù)器功耗提高,單機柜功率上升趨勢明顯。根據Uptime Institute相關(guān)報告數據顯示,2020年全球數據中心單機柜功率密度達到8.4kW/機柜,相比于2017年的5.6 kW/機柜有明顯提升;其中71%的數據中心平均功率密度低于10 kW/機柜,17%的數據中心平均功率密度高于20kW/機柜,預計未來(lái)數據中心功率密度將繼續上升,高密度數據中心占比將持續提高。
單機柜功率逐漸超出風(fēng)冷散熱閾值,液冷散熱已是趨勢所向。風(fēng)冷散熱一般適用于20Kw/機柜左右的功率密度以下,20Kw/機柜以上時(shí)液冷散熱優(yōu)勢明顯。通用服務(wù)器通常為2U,AI訓練服務(wù)器通常為6U,AI推理服務(wù)器通常為4U,標準機柜為42U;考慮到電源模塊、網(wǎng)絡(luò )模塊等因素,假設單機柜內可以放置18個(gè)通用服務(wù)器或6個(gè)AI訓練服務(wù)器或9個(gè)AI推理服務(wù)器,根據之前對于服務(wù)器功耗的測算,則單機柜功率可以分別達到12.6kW(通用),58.8kW(AI訓練)和18kW(AI推理);考慮到機柜中其他模塊的散熱情況,實(shí)際單機柜功率會(huì )更高。對于通用服務(wù)器機柜,其單機柜功率已經(jīng)開(kāi)始逐步靠近風(fēng)冷散熱閾值,隨著(zhù)通用服務(wù)器功耗的持續上升,液冷散熱的優(yōu)勢有望逐步顯現;對于A(yíng)I訓練與推理服務(wù)器機柜,其單機柜功率已經(jīng)逼近或者超出了風(fēng)冷散熱所能覆蓋的功率密度范圍,液冷散熱已成大勢所趨。
3.2 PUE限制是現階段液冷技術(shù)發(fā)展的核心驅動(dòng)力
數據中心耗電量不斷提升,綠色低碳成為必然趨勢。數據中心是能耗大戶(hù),其包含大量的 IT 設備、供電與制冷設備。隨著(zhù)數據中心算力與功耗的不斷增長(cháng),數據中心耗電量必將呈快速增長(cháng)趨勢,綠色低碳必將并且已經(jīng)成為新型數據中心發(fā)展的重要基本原則之一。
我國數據中心平均PUE為1.49,仍有半數區域的數據中心PUE位于1.5以上。PUE 全稱(chēng) “Power Usage Effectiveness(能源使用效率)”,是數據中心消耗的一切能源與 IT 負載運用的能源之比,比值越接近于1,說(shuō)明能源越接近全部都用于 IT 負載上。目前我國一半以上區域的數據中心 PUE 值都在 1.5 以上,即消耗在冷卻等非 IT 負載上的能源,占到了 IT 負載的一半以上。截至2021年全國數據中心平均PUE為1.49,還有華南、華東、西北和西南區域的數據中心PUE超過(guò)1.50,僅有東北、華北和華東區域的數據中心PUE在1.50以下。
數據中心PUE管控日趨嚴格,針對老舊與新建數據中心均出臺強力約束措施。國家與地方出臺了一系列政策對數據中心能耗管理進(jìn)行規范,不斷強調數據中心綠色高質(zhì)量發(fā)展的重要性。2021年7月,工信部印發(fā)《新型數據中心發(fā)展三年行動(dòng)計劃(2021-2023年)》,要求到2021年底,新建大型及以上數據中心PUE降低到1.35以下;到2023年底,新建大型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區降低到1.25以下。2022年8月,工信部等七部門(mén)印發(fā)《信息通信行業(yè)綠色低碳發(fā)展行動(dòng)計劃(2022-2025年)》,要求到2025年,全國新建大型、超大型數據中心電能利用效率(PUE)降到1.3以下,改建核心機房PUE降到1.5以下。除此之外,地方也出臺了一系列數據中心PUE要求相關(guān)的政策文件,其中北京針對數據中心的年能源消耗量設立了多層次PUE要求,年能源消耗量越高的數據中心PUE要求越高,此外還針對PUE超過(guò)1.4的數據中心實(shí)行電價(jià)加價(jià)措施。
冷卻系統占據數據中心除IT設備負載外的能耗中的絕大部分,液冷技術(shù)能夠有效降低冷卻系統能耗,進(jìn)而降低數據中心PUE,滿(mǎn)足監管政策要求。PUE為1.92的數據中心下冷卻系統能耗占總能耗的比例為38%左右,而PUE為1.3的數據中心下冷卻系統能耗占比下降至18%,這意味著(zhù)降低數據中心PUE的關(guān)鍵就在于降低冷卻系統的能耗表現。在同等的散熱水平下,傳統風(fēng)冷方案的數據中心PUE一般為1.5左右,液冷方案的PUE值可降至1.05-1.2左右,能夠滿(mǎn)足當前政策對于數據中心PUE的要求。
3.3 數據中心TCO是液冷技術(shù)規模應用的關(guān)鍵因素
數據中心總成本(TCO)包括建設成本(Capex)和運營(yíng)成本(Opex)。Capex一般指建設成本,包括土地獲取、勘察、規劃設計、設備購置、建設、安裝以及系統調測等費用;Opex一般指運營(yíng)成本,主要包含電力、冷卻散熱等基礎設施成本、維護成本及管理成本。低成本是數據中心建立競爭優(yōu)勢的關(guān)鍵,也是降低投資回收期和持續發(fā)展的關(guān)鍵。
我們基于華東地區、2N UPS、30kW每機柜等常見(jiàn)數據中心配置進(jìn)行風(fēng)冷、冷板式液冷和浸沒(méi)式液冷等不同冷卻方式下的TCO測算(本文關(guān)于TCO的討論均不考慮服務(wù)器等IT設備成本)。市場(chǎng)普遍認為,風(fēng)冷方案在Capex上更具經(jīng)濟性,液冷方案只在后續的Opex中有一定的優(yōu)勢。但是根據奕信通科技在2022年數據中心標準峰會(huì )(CDCC)發(fā)布的報告進(jìn)行測算,現階段選擇冷板式液冷方案的Capex已經(jīng)低于風(fēng)冷方案,即便是浸沒(méi)式液冷方案,也將在運行5年左右之后出現TCO低于風(fēng)冷方案的拐點(diǎn)。(該過(guò)程僅為根據公開(kāi)資料的估算,請以實(shí)際環(huán)境和負載下的測算為準)
但是該測算結果依賴(lài)于一定的前提條件:如機柜功率達到30KW、不計算服務(wù)器折舊和服務(wù)器運營(yíng)支出、水電費與房租等運營(yíng)成本按華東地區情況計價(jià)、采用集中式大型IDC機房且IT設備在12個(gè)月線(xiàn)性上架后實(shí)現80%負載率、外界氣溫對制冷系統的能耗需求較高等。因此在西北部地區、較小型數據中心等場(chǎng)景下液冷技術(shù)的經(jīng)濟性尚沒(méi)有完全體現。但在數據中心發(fā)展的大型化、集約化的趨勢下,且液冷方案仍存在每年降本5-10%的空間,再考慮到液冷方案能夠有效延長(cháng)服務(wù)器使用壽命,未來(lái)液冷數據中心TCO的優(yōu)勢將更加明顯。
機電部分包括制冷系統、配電系統、機柜系統、布線(xiàn)系統和監控管理系統的購置和安裝成本,不考慮IT設備成本。
液冷方案與風(fēng)冷方案相比:1)其機電部分的Capex可以節省掉冷凍水機組/冷凍水精密空調,減少UPS和開(kāi)關(guān)設備的容量等;2)需要增加密封機箱、冷卻液、冷板、熱交換器、防滴漏連接器和機架式分液器等液冷設備方面的成本;3)液冷方案下同樣外電體量的數據中心內空間利用率更高,能承載更多IT設備,每ITkW(IT設備功率)下的分攤成本更低。根據假設條件測算,風(fēng)冷、冷板式液冷、浸沒(méi)式液冷方案的機電部分Capex分別為16000-18000元/ITkW、15000-17000元/ITkW和23000-28000元/ITkW左右。冷板式液冷方案下分攤到每ITkW下的機電部分Capex與風(fēng)冷方案基本持平甚至更低;浸沒(méi)式液冷方案所需增加的機電設備較多,分攤下來(lái)每ITkW的Capex相比于風(fēng)冷仍有7000-10000元/ITkW左右的上升。
土建部分主要包括建筑物成本。風(fēng)冷和液冷方案的土建成本差異主要在于同樣體量的數據中心內,液冷方案下建筑所需的建筑面積更小。根據奕信通科技測算,風(fēng)冷、冷板式液冷、浸沒(méi)式液冷的土建部分Capex分別為5000元/ITkW,3000元/ITkW和3500元/ITkW左右。
外電和能評部分主要包括獲取外電資源,通過(guò)能評驗收所需付出的成本。與風(fēng)冷相比,液冷方案的PUE更低更節能,獲取外電資源,通過(guò)能評驗收的難度相對會(huì )小很多。根據奕信通科技測算,風(fēng)冷、冷板式液冷、浸沒(méi)式液冷的外電和能評部分Capex分別為4000元/ITkW,2000元/ITkW和2000元/ITkW左右。
Opex中占比*高的是電力成本,液冷技術(shù)可以有效降低電力成本。數據中心的Opex主要包括電力成本、固定資產(chǎn)折舊、房租、人工費等等,其中電力成本占比*高,達到56.7%(風(fēng)冷情況下)。
浸沒(méi)式液冷方案的Opex*具優(yōu)勢。根據奕信通科技測算,風(fēng)冷方案的Opex為9360-9720元/ITkw/年左右,冷板式液冷方案的Opex為8040-8400元/ITkw/年左右,浸沒(méi)式液冷方案的Opex是7800-8160元/ITkw/年左右。
現階段選擇冷板式液冷的初始TCO已經(jīng)低于風(fēng)冷,浸沒(méi)式液冷的TCO將在5-6年之后低于風(fēng)冷。我們根據以上測算結果進(jìn)行10年期的TCO測算,那么風(fēng)冷的Capex和Opex分別為26000元/ITkW和9540元/ITkW/年,冷板式液冷的Capex和Opex分別為21000元/ITkW和8220元/ITkW/年,浸沒(méi)式液冷的Capex和Opex分別為31000元/ITkW和7980元/ITkW/年。根據TCO測算,現階段冷板式液冷方案的TCO從開(kāi)始就已經(jīng)低于風(fēng)冷方案,浸沒(méi)式液冷方案也將在5年左右之后出現TCO低于風(fēng)冷方案的拐點(diǎn)。
3.4 液冷技術(shù)能夠有效延長(cháng)服務(wù)器使用壽命,實(shí)現降本增效
傳統電子設備普遍采用空氣冷卻方式,溫度是電子設備產(chǎn)生故障的主要原因之一。環(huán)境的多樣性包括溫度、濕度、振動(dòng)、灰塵等多個(gè)方面,在導致電子設備失效的因素中溫度占了55%,過(guò)熱是電子設備產(chǎn)生故障的主要誘因。隨著(zhù)溫度的增加,電子、原子、分子的運動(dòng)速度加快,使得電子設備的性能發(fā)生變化,當達到一定階段時(shí),就會(huì )引起嚴重的故障。在高于一般室內環(huán)境溫度(約20°C~25°C)范圍內條件下,故障率大致按指數規律隨溫度的升高而增加。同時(shí),濕度、振動(dòng)、灰塵等因素同樣會(huì )對電子設備的工作性能和使用壽命產(chǎn)生負面影響。
液冷能夠有效降低服務(wù)器部件故障率,延長(cháng)使用壽命。液體具有比空氣更大的比熱容,散熱能力更強,使得服務(wù)器溫度更加穩定,CPU和GPU計算部件可以長(cháng)時(shí)間穩定工作在高性能頻率狀態(tài)。此外,浸沒(méi)式液冷將IT設備浸入封閉的液體環(huán)境中,與空氣完全隔離,并且不再需要高速風(fēng)扇進(jìn)行散熱,消除了空氣濕度、風(fēng)扇振動(dòng)以及灰塵帶來(lái)的可靠性影響,從而優(yōu)化了服務(wù)器的運行環(huán)境,延長(cháng)了設備的使用壽命。根據阿里云的實(shí)驗數據,與風(fēng)冷服務(wù)器相比,液冷服務(wù)器整體部件故障率下降約53%,其中電源、網(wǎng)卡、風(fēng)扇、網(wǎng)線(xiàn)等部件的故障率下降超過(guò)80%。隨著(zhù)單服務(wù)器價(jià)值量以及數據中心運營(yíng)成本的與日俱增,服務(wù)器的可靠性與使用壽命顯得尤為重要,液冷帶來(lái)的附加經(jīng)濟價(jià)值有望逐步顯現。
3.5 解耦交付模式成為未來(lái)發(fā)展趨勢,助力液冷產(chǎn)業(yè)規范化發(fā)展
目前冷板式液冷方案的交付模式可以分為兩類(lèi),包括一體化交付與解耦交付兩種。一體化交付是指液冷機柜的所有部分,包括機柜和服務(wù)器等,都按照廠(chǎng)商自行設定的標準進(jìn)行集成設計開(kāi)發(fā),然后再作為一個(gè)整體進(jìn)行交付。而解耦交付則要求液冷機柜與液冷服務(wù)器之間遵循用戶(hù)預先制定的通用接口設計規范,機柜與服務(wù)器可以分別由不同廠(chǎng)商負責生產(chǎn)和交付。
解耦交付模式為大勢所趨,助推冷板式液冷產(chǎn)業(yè)規范化發(fā)展。服務(wù)器與機柜解耦更有利于形成統一的技術(shù)標準及規范,能夠促進(jìn)行業(yè)競爭與技術(shù)推廣,讓更多廠(chǎng)商能夠參與液冷行業(yè),實(shí)現多廠(chǎng)家適配,也便于后續靈活部署,使得客戶(hù)可以根據實(shí)際需求選擇不同的服務(wù)器和機柜組合,不會(huì )受限于某一個(gè)供應商。目前華為、超聚變等液冷廠(chǎng)商已經(jīng)實(shí)現了盲插快接,中國移動(dòng)也已經(jīng)著(zhù)手研發(fā)新型機柜,并計劃在完成測試后開(kāi)源,推動(dòng)更多的服務(wù)器和機柜廠(chǎng)商參與到盲插解耦液冷技術(shù)的研發(fā)與驗證中,推動(dòng)技術(shù)成熟與規范化。
4 數據中心液冷未來(lái)市場(chǎng)規模估算
根據估算,到2025年,中國數據中心液冷市場(chǎng)規模將達到359億元左右,CAGR達到72.4%;AI數據中心液冷市場(chǎng)規模將達到280億元左右,CAGR達到71.4%;通用數據中心液冷市場(chǎng)規模將達到79億元,CAGR達到76.2%。核心假設如下:
1)假設通用服務(wù)器的平均功率為0.7kW。以超聚變FusionServer 2288 V7(2U)作為通用服務(wù)器的代表型號,在超聚變服務(wù)器功耗計算器中測算得出其滿(mǎn)載功率約為0.7kW。
2)假設AI服務(wù)器的平均功率為3.8kW,其中AI訓練服務(wù)器平均功率為8kW,AI推理服務(wù)器為2kW。根據產(chǎn)業(yè)調研數據,假設AI服務(wù)器中訓練與推理的數量關(guān)系約為3:7,訓練服務(wù)器中H系列和A系列所占比例約為4:6,推理服務(wù)器均為T(mén)4系列。以超聚變FusionServer G5500 V6作為AI訓練服務(wù)器的代表型號,超聚變FusionServer G8600 V7作為AI推理服務(wù)器的代表型號,根據超聚變服務(wù)器功耗計算器,H系列訓練服務(wù)器滿(mǎn)載功率約為10kW,A系列訓練服務(wù)器滿(mǎn)載功率約為6.8kW,T4系列推理服務(wù)器的功率約為2KW。結合以上數量比例關(guān)系,可以估算出AI服務(wù)器平均功率約為3.8kW。
3)假設通用服務(wù)器平均功率每年提升10%,AI訓練與推理服務(wù)器平均功率未來(lái)三年提升30%/20%/15%。根據近幾年CPU/GPU TDP的變化趨勢,CPU TDP每年提升10%左右,GPU TDP每年提升20%左右,我們假設通用服務(wù)器平均功率未來(lái)三年保持10%左右的增速,AI訓練與推理服務(wù)器平均功率未來(lái)三年的增速為30%/20%/15%。
4)至2025年,假設通用服務(wù)器液冷滲透率由5%提升到20%,AI訓練服務(wù)器液冷滲透率由70%提升到100%,AI推理服務(wù)器液冷滲透率由40%提升至70%。根據產(chǎn)業(yè)調研與曙光數創(chuàng )的信息,2022年我國液冷滲透率為5%-8%左右,預計2025-2028年時(shí)液冷滲透率能達到30%左右。我們假設通用服務(wù)器2022年液冷滲透率為5%,至2025年液冷滲透率上升至20%;AI訓練服務(wù)器2022年液冷滲透率為70%,至2025年液冷滲透率上升至100%;AI推理服務(wù)器2022年液冷滲透率為40%,至2025年液冷滲透率上升至70%;整體液冷滲透率由2022年的8%上升至2025年的25.7%。
5)至2025年,假設浸沒(méi)式液冷滲透率由10%提升至30%,冷板式液冷滲透率由90%降低至70%。根據IDC《中國半年度液冷服務(wù)器市場(chǎng)(2023上半年)跟蹤》報告,按照服務(wù)器出貨量口徑統計,2023H1我國冷板式液冷服務(wù)器比例為90%左右,浸沒(méi)式液冷滲透率僅為10%。隨著(zhù)未來(lái)浸沒(méi)式液冷技術(shù)逐漸成熟進(jìn)入加速推廣期,我們預計浸沒(méi)式液冷的滲透率由2022年的10%上升至2025年的30%,冷板式液冷的滲透率由2022年的90%下降至70%。
6)考慮到大部分數據中心液冷廠(chǎng)商的產(chǎn)品只覆蓋數據中心液冷基礎設施中的制冷系統、機柜系統等核心部分,故估算數據中心液冷市場(chǎng)規模時(shí)只考慮數據中心液冷基礎設施中制冷系統、機柜系統等核心部分的市場(chǎng)規模,不考慮布線(xiàn)系統、土建、外電、能評等其他配套部分。結合產(chǎn)業(yè)調研數據,假設冷板式液冷基礎設施的價(jià)值量約為10000元/ITkW,浸沒(méi)式液冷基礎設施的價(jià)值量約為15000元/ITkW。
7)考慮到未來(lái)數據中心液冷市場(chǎng)競爭逐步加劇以及技術(shù)逐漸成熟,液冷方案價(jià)格將呈逐年下降的趨勢;冷板式液冷技術(shù)目前更為成熟,未來(lái)價(jià)格的下降空間相對較小。我們假設冷板式液冷價(jià)值量逐年下降5%,浸沒(méi)式液冷價(jià)值量逐年下降10%。
以下是A股液冷服務(wù)器概念梳理:
中科曙光:公司的 ParaStor 液冷存儲產(chǎn)品將液冷方案與存儲技術(shù)結合, 有效降低 PUE 值;在應用層面,靈活配置多種場(chǎng)景, 針對高性能小規模應用場(chǎng)景,提供全閃存配置方案,而針對中大規模應用場(chǎng)景,則提供更高性?xún)r(jià)比的混閃配置方案,為客戶(hù)釋放更多的業(yè)務(wù)價(jià)值。此外,ParaStor 液冷存儲產(chǎn)品與液冷服務(wù)器形成“存算一棧式” 液冷方案,在提高運維效率的同時(shí),助力數據中心部署更便捷。(行業(yè)龍頭)
浪潮信息:浪潮信息將“All in 液冷”納入公司發(fā)展戰略,全棧布局液冷,發(fā)布全棧液冷產(chǎn)品,實(shí)現通用服務(wù)器、高密度服務(wù)器、整機柜服務(wù)器、AI 服務(wù)器四大系列全線(xiàn)產(chǎn)品均支持冷板式液冷,并提供液冷數據中心全生命周期整體解決方案(行業(yè)龍頭)
工業(yè)富聯(lián):公司研發(fā)基于開(kāi)放平臺聯(lián)盟架構的 DC_MHS 數據中心模塊化硬件系統,推出全球**臺模塊化服務(wù)器,同時(shí)產(chǎn)品應用于客戶(hù)*新一代 HPC 加速器中;液冷技術(shù)方面,公司持續加大數據中心節能技術(shù)研發(fā),通過(guò)沉浸式與機柜式液冷散熱系統,實(shí)現成本節約及效率提升。(行業(yè)龍頭)
紫光股份:2022年公司發(fā)布了H3C UniServer R4900LC G5液冷服務(wù)器及以其為核心的液冷系統、新一代超融合UIS8.0、全新綠洲平臺2.0等產(chǎn)品和方案。(行業(yè)龍頭)
中興通訊:公司擁有全系列服務(wù)器及存儲產(chǎn)品,包括通用服務(wù)器、GPU服務(wù)器、液冷服務(wù)器以及全閃存儲產(chǎn)品、混閃存儲產(chǎn)品等。(行業(yè)龍頭)
光迅科技:公司是浸沒(méi)液冷智算產(chǎn)業(yè)發(fā)展聯(lián)盟會(huì )員單位,是相關(guān)標準、工藝研究和實(shí)踐的重要參與者之一,目前已有相關(guān)產(chǎn)品發(fā)布。(行業(yè)新玩家)
飛龍股份:公司的數據中心液冷產(chǎn)品在蕪湖飛龍、鄭州飛龍已建有專(zhuān)門(mén)生產(chǎn)線(xiàn)。公司多個(gè)液冷項目正在進(jìn)行中,部分項目已經(jīng)量產(chǎn)。(行業(yè)新玩家)
網(wǎng)宿科技:公司全資子公司綠色云圖自主研發(fā)的浸沒(méi)式液冷技術(shù),能夠為企業(yè)提供更節能、高效的液冷數據中心建設及改造方案。經(jīng)工業(yè)和信息化部電子第五研究所(中國賽寶實(shí)驗室)數據中心能效評估,綠色云圖自主研發(fā)的液冷數據中心PUE均值低至1.049。(行業(yè)新玩家)
潤澤科技:公司已經(jīng)開(kāi)始批量交付液冷機柜,正在交付的以10kw左右的高密機柜為主,以及20kw以上的液冷機柜。公司將加快推進(jìn)高密機柜和液冷機柜應用,快速實(shí)現整棟液冷數據中心正式投運,向智算中心和超算中心快速演進(jìn),形成數據中心、智算中心和超算中心融合的綜合算力中心。(行業(yè)新玩家)
烽火通信:公司全新一代 FitNeo LCS 液冷解決方案,專(zhuān)為高熱密度機柜綠色低碳運營(yíng)而設計。FitNeo LCS 通過(guò)芯片級制冷,直接利用*大溫差快速換熱,實(shí)現超低 PUE,CLF 低至 0.04,功耗降低 5-20%;同時(shí),具有環(huán)保無(wú)氟、低噪低耗、綠色節能等特點(diǎn),機組管路通過(guò)工廠(chǎng)預制模塊化配裝實(shí)現快速交付,精減現場(chǎng)動(dòng)火焊接環(huán)節;冷卻液緩蝕抑菌、超低電導,連接部件超高承壓,超低漏率,全鏈路漏液檢測可自動(dòng)上報。(行業(yè)新玩家)
銳新科技:公司鋁合金散熱器應用在液冷服務(wù)器中。在光模塊的冷卻中,通過(guò)對鋁合金基座進(jìn)行直接水冷散熱的,而光學(xué)元件是裝在基板上工作,所產(chǎn)生的熱量是由基座吸收,從達到散熱的目的。公司鋁合金散熱器應用在液冷服務(wù)器光模塊的冷卻。(液冷材料)
科華數據:目前公司自主研發(fā)的液冷技術(shù)已運用在公司數據中心及儲能產(chǎn)品、解決方案中。領(lǐng)先的產(chǎn)品和技術(shù)是公司的長(cháng)期核心競爭力,公司持續跟進(jìn)客戶(hù)的技術(shù)產(chǎn)品需求,做好相關(guān)技術(shù)儲備,保持自身技術(shù)的領(lǐng)先性。(液冷零部件)
歐陸通:公司為阿里巴巴定制的新一代浸沒(méi)式液冷集中式供電電源在云棲大會(huì )展出,應用于磐久服務(wù)器供電系統。該電源方案包括晨沒(méi)式液冷的ATS 2.5KW PSU 和30kw Power Shef,由歐陸通子公司云電科技自主研發(fā)及生產(chǎn),進(jìn)入準量產(chǎn)階段。該加工結合了浸沒(méi)式液冷+集中式供電的雙重優(yōu)勢,帶ATS部件整機效率高達97%。(液冷零部件)
中石科技:公司宜興子公司主營(yíng)產(chǎn)品包括液冷模組等,建立相關(guān)技術(shù)儲備和產(chǎn)品線(xiàn),為國內外多家服務(wù)器企業(yè)提供液冷等全方位的管理綜合解決方案。(液冷零部件)
科創(chuàng )新源:公司研發(fā)的數據中心服務(wù)器特種散熱模組可滿(mǎn)足客戶(hù)在高算力場(chǎng)景下,高功耗半導體芯片的散熱效能,該項目已完成樣品試制并已通過(guò)驗證。公司控股子公司蘇州瑞泰克散熱科技有限公司主要產(chǎn)品包括冷凝器、蒸發(fā)器以及散熱液冷板等熱管理系統產(chǎn)品。(液冷零部件)
高瀾股份:公司服務(wù)器液冷業(yè)務(wù)擁有三種解決方案:冷板式液冷、浸沒(méi)式液冷和集裝箱式液冷,可有效降低大型數據中心的PUE(數據中心總設備能耗/IT設備能耗)。(液冷零部件)
康盛股份:公司新一代數據中心機房建設完成并投入使用,標志著(zhù)康盛股份在液冷溫控領(lǐng)域實(shí)現新突破,邁上新臺階??凳⒐煞輼藴驶](méi)式液冷機房IT設備功率130kW,可提供2P算力。液冷機房建設主要依據GB50174-2017和液冷數據中心技術(shù)規范(康盛股份參編行業(yè)標準)??凳⒐煞輼藴驶](méi)式液冷機房配3臺30kW 42U高性能液冷機柜、2臺20kW 21U高性能液冷機柜。目前運行服務(wù)器主要有新華三5315Y服務(wù)器和DELL R760服務(wù)器。(液冷零部件)
精研科技:公司可為消費電子、通信、激光投影、服務(wù)器等領(lǐng)域客戶(hù)提供風(fēng)冷模組、液冷模組、液冷板以及模組子件熱管、VC等散熱部品。(液冷零部件)
華勤技術(shù):公司已于2021年取得液冷裝置及設備的實(shí)用新型**,并在散熱方面取得了數據產(chǎn)品散熱核心技術(shù)。目前在部分的人工智能服務(wù)器上使用液冷散熱技術(shù)。(液冷零部件)
銳捷網(wǎng)絡(luò ):司在業(yè)界進(jìn)行了NPO、液冷等創(chuàng )新技術(shù)的探索和市場(chǎng)實(shí)踐。公司與頭部互聯(lián)網(wǎng)客戶(hù)聯(lián)合發(fā)布了在大型數據中心規模部署的浸沒(méi)式液冷交換機,提升了數據中心網(wǎng)絡(luò )的可靠性和能源效率;去年,公司發(fā)布了同時(shí)應用NPO硅光和冷板式液冷技術(shù)的 51.2T NPO硅光交換機,推動(dòng)數據中心網(wǎng)絡(luò )建設更加綠色低碳化。(液冷零部件)
飛榮達:公司針對服務(wù)器上的散熱需求還開(kāi)發(fā)了軸流風(fēng)扇,特種散熱器,單相液冷冷板模組,兩相液冷模組等產(chǎn)品。(液冷零部件)
強瑞技術(shù):公司CDU(液冷分配單元)單機已通過(guò)客戶(hù)測試并生產(chǎn)。(液冷零部件)
申菱環(huán)境:公司致力于緊跟客戶(hù)步伐,通過(guò)高能效,可靠的新一代溫控產(chǎn)品如DPC相變冷卻系統,新型高效蒸發(fā)冷卻系統,液冷溫控系統等產(chǎn)品和解決方案服務(wù)客戶(hù)。(液冷零部件)
英維克:公司在算力行業(yè)應用的液冷全鏈條解決方案已有成熟、完整布局,未來(lái)由于A(yíng)I算力的增長(cháng)勢必拉動(dòng)相關(guān)的業(yè)務(wù)增長(cháng)。(液冷零部件)
同方股份:公司目前有基于華為昇騰的AI服務(wù)器可提供液冷解決方案。(華為)
朗威股份:公司是一家數據中心機房及綜合布線(xiàn)設備提供商,主營(yíng)業(yè)務(wù)是服務(wù)器機柜、冷熱通道、微模塊、T-block機架等數據中心機柜和綜合布線(xiàn)產(chǎn)品的研發(fā)、生產(chǎn)、銷(xiāo)售及服務(wù)。2022年公司液冷機柜產(chǎn)品銷(xiāo)售收入占數據中心機柜銷(xiāo)售總額的比例為3.79%。(液冷零部件)
神州數碼:公司目前正在進(jìn)行液冷整機柜產(chǎn)品的需求設計和開(kāi)發(fā)。目前液冷共有兩種主流的技術(shù)方案,分別是浸沒(méi)方案和冷板方案,分別適用于不同的數據中心場(chǎng)景,公司當前規劃的液冷整機柜產(chǎn)品會(huì )基于冷板開(kāi)發(fā)。(液冷零部件)
雙良節能:公司CDM液冷換熱模塊涉及全浸沒(méi)式液冷服務(wù)器換熱模塊與尾端冷卻塔設備,近年來(lái)一直獲有優(yōu)質(zhì)客戶(hù)的訂單。(液冷零部件)
[聲明]文章系本網(wǎng)編輯轉載,轉載目的在于傳遞更多行業(yè)新聞信息,文章僅作交流學(xué)習使用,也并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責。如涉及作品內容、版權和其它問(wèn)題,請在30日內與本網(wǎng)聯(lián)系,我們將在**時(shí)間刪除內容!
本站文章版權歸原作者所有 內容為作者個(gè)人觀(guān)點(diǎn) 本站只提供參考并不構成任何投資及應用建議。本站擁有對此聲明的*終解釋權。