丁香五月激情中文字幕,中文字幕av一区二区,又粗又大又爽免费视频,国产男人添女人30分钟免费,熟女性爱视频,看三级网站在线观看视频,射进去AV影视网,美国三级又粗又大又长,亚洲免费在线黄片,亚洲日韩在线

廠商踴躍、數據中心觀望 液冷距離爆發(fā)還差一場風

發(fā)布日期:2022-11-08 瀏覽次數:809


近年來,液冷技術在數據中心領域的遭遇可以用一個詞形容:又冷又熱。

技術冷:作為冷卻介質,液體的冷卻效能遠遠高于空氣,所以在冷卻效果上比風冷更“冷”一籌。

關注熱:隨著技術發(fā)展與產業(yè)環(huán)境、政策變化,液冷再度受到行業(yè)關注,且熱度持續(xù)增加。

產品熱:數據中心產業(yè)上游的設備廠商對液冷熱情高漲,相關產品與研發(fā)層出不窮,產業(yè)下游的云廠商們也開展了不同程度的技術探索。

應用冷:產業(yè)中游的數據中心對液冷態(tài)度謹慎,尚無數據中心企業(yè)宣布液冷規(guī)?;渴鹩媱?。

液冷為何突然在數據中心領域熱起來?產業(yè)“冷”“熱”差別的原因何在?液冷技術在數據中心的應用離爆發(fā)還有多久?筆者試為你梳理解析這些問題,并給出個人判斷。

液冷非一日之寒  計算愈來愈熱

展開討論前,先明確液冷的定義:液冷是使用液體作為熱量傳輸的媒介,為發(fā)熱部件換熱帶走熱量,傳遞到遠處再進行冷卻,實現散熱的技術。 

相較于風冷以空氣為冷卻媒介,通過風扇和壓縮制冷,液體的比熱容遠高于空氣,單位體積熱容量是風冷的1000倍以上,熱量傳導效率更高。



液冷與風冷相關性能對比 

這一原理很早就被發(fā)現,并被最早應用于工業(yè)、航天領域的散熱,至今被使用的“冷板”一詞據說就來源于阿波羅登月計劃,將液冷用于宇航員體溫控制。

在數據中心領域,液冷始終與計算產生的熱量緊緊聯系在一起。

萌芽:

上世紀60~90年代,數據中心還被稱為“機房”,采用集成電路的大型主機進行高速數據處理時有過熱宕機的風險,以IBM為首的廠商研發(fā)了液冷系統(tǒng)應用在大型主機,并取得顯著效果,其中就包括著名的IBM360/91型計算機。

遇冷:

計算技術的迭代,使得液冷隨后“遇冷”。

上世紀末,隨著超大規(guī)模集成電路取代晶體管,在計算效率提升的同時,計算機和芯片產生的功耗、熱量斷崖式下跌,風冷的散熱效率足以滿足。在成本、安全顧慮、部署簡易性等因素影響下,風冷超越液冷成為數據中心的主流散熱技術。

興起:

高密度計算興起,液冷再受青睞。

后摩爾定律時代,芯片功耗與服務器功耗逐步上升,數據中心單機柜功率密度也不斷增大, 2020年數據中心平均機柜功率已增長至8.5KW,傳統(tǒng)風冷散熱在換熱性能及能耗上面臨瓶頸。業(yè)內普遍認為,傳統(tǒng)風冷已經無法滿足高密度計算的發(fā)展需求,正如中國信通院云大所所長何寶宏表示“再大的風也吹不冷滾燙的‘芯’了”。

因此,液冷于近年來再度進入數據中心視野,逐漸受到業(yè)界關注。

液冷數據中心:更好散熱 更低能耗

時移世易,面對當前計算技術與散熱需求,在數據中心應用液冷技術的優(yōu)勢正日漸顯現。

首先是散熱效率。據綠色網格研究,每機柜 15-25 kW的功率密度是“未使用背板換熱器等其他制冷設備”的風冷解決方案上限,而液冷系統(tǒng)可以支持的機柜功率是兩倍以上,甚至可以擴展到單機架超100kw。液冷可以支持數據中心高功率的散熱,提高換熱效率,且能減少服務器散熱熱點,有效抑制元件內部溫度的瞬間提升,延長芯片壽命。


傳統(tǒng)高耗能風冷數據中心各部分能耗占比

其次節(jié)能降耗。與傳統(tǒng)風冷技術相比,液冷系統(tǒng)耗電量方面約比風冷系統(tǒng)節(jié)省電量30\%-50\%。要知道,在傳統(tǒng)數據中心,制冷系統(tǒng)占數據中心整體能耗的40\%以上。數據中心使用液冷可有效降低能耗,提高能源利用效率,降低PUE值和電力成本。

第三,提高計算密度,減少風扇震動噪音。相較于傳統(tǒng)風冷,液冷數據中心去掉了空調系統(tǒng)和對應的風冷基礎設施,也不需要設置冷暖通道,節(jié)省了大量空間可以容納更多服務器,提高計算密度和可銷售空間。不同液冷方式可減少或避免風扇的使用,有效降低震動和機房噪音,而震動會直接影響IT系統(tǒng)的穩(wěn)定性和壽命。

綜合來看,數據中心液冷技術,既契合了計算的未來高功率趨勢,滿足服務器芯片散熱需求,又能實現數據中心節(jié)能降耗,正愈發(fā)受到數據中心產業(yè)的廣泛關注。

產品與技術創(chuàng)新不斷 上游設備廠商踴躍

近些年,很多企業(yè)展開液冷在數據中心應用的研發(fā),形成了多種部署方式和產品。

部署最多、服務器不直接接觸液體,不需要對數據中心機房進行重新改造的冷板式液冷。

將發(fā)熱器件完全浸沒在冷卻液中,散熱效率更高,實施難度更大需要對機房其他系統(tǒng)改造的浸沒式液冷。

別具一格,將冷卻液直接噴淋到發(fā)熱器件表面進行熱交換的噴淋式液冷。

不同液冷方式、代表產品及廠商,筆者一年前曾撰文《泡澡、淋浴、冷氣片——數據中心液冷模式與應用一覽》。

 

阿里云在IDCC大會現場展示的浸沒式液冷模塊

時隔一年,液冷在數據中心的熱度更盛,各大設備廠商紛紛發(fā)力,有的首度推出液冷產品,有的將液冷上升為發(fā)展戰(zhàn)略,上游產品、解決方案頻出,各有側重:

去年12月的“第十六屆中國IDC產業(yè)年度大典”上,專注浸沒式液冷進行多年自主研發(fā)的阿里云正式向業(yè)界發(fā)布行業(yè)首款單相浸沒液冷解決方案——磐久液冷一體機系列Immersion DC 1000。據阿里云數據,該解決方案可在全球任何氣象區(qū)域部署并可輕松實現極致PUE1.09。

2022年初,浪潮信息將“All in液冷”寫入公司戰(zhàn)略,全棧布局液冷,實現了全產品線支持冷板式液冷。浪潮信息表示,可以實現液冷從核心部件到整體解決方案全覆蓋,提供液冷數據中心從規(guī)劃咨詢到設計施工的全生命周期交付。

2022年初,寧暢推出了新系列液冷服務器,該系列包含高密度、通用機架等多品類產品,可適用于眾多IT應用場景。隨后在液冷服務器基礎上,推出全系統(tǒng)定制液冷方案,實現從需求梳理、架構設計、機房部署到運維服務的全系統(tǒng)定制。

2022年4月,新華三發(fā)布新一代冷板式液冷系統(tǒng)解決方案。該液冷系統(tǒng)由H3C UniServer R4900LC G5 液冷服務器、42U通用機柜、分布式CDU等部件組成,通過了中國計量科學研究中心的能源計量認證,夏季模式PUE可達1.047,整機全年平均PUE1.042。

今年下半年,科華數據陸續(xù)發(fā)布多款數據中心液冷產品:科華數能S3液冷儲能系統(tǒng)、針對邊緣計算中心和中小型中心節(jié)能改造的抽屜式水-風液冷CDU、板式液冷微模塊數據中心。該微模塊數據中心冷循環(huán)系統(tǒng)采用機柜式CDU-300KW,散熱量可達300KW。

……

可以看出,過去一年中,數據中心液冷產品更加豐富,技術進一步加強,商業(yè)化進程加速。

顧慮幾重 數據中心觀望

如果只是一篇普通文章,寫到這里,得出“數據中心液冷形勢一片大好”的結論就足夠了。

然而,筆者梳理過近兩年來數據中心液冷領域的動作后發(fā)現,大部分來自產業(yè)上游的設備廠商,服務器、CDU(數據中心液冷分配裝置)、TANK(機柜液冷柜)、CPU/GPU、冷卻液、整體解決方案,尤以服務器廠商為甚。產業(yè)下游,也僅有以阿里云為首的幾家云廠商,基于自身業(yè)務需求和技術先進性等因素,進行液冷研發(fā)與部署。

這其中,少了最不可或缺的產業(yè)中游——數據中心企業(yè)的身影。

據筆者了解,相較于上游廠商的踴躍態(tài)勢,僅個別企業(yè)按客戶需求提供了機房改造部署,大部分數據中心對液冷仍持觀望態(tài)度:認可液冷的散熱與節(jié)能優(yōu)勢,會主動了解液冷產品、技術細節(jié),在內部做學習或小型探索,但無公開的大規(guī)模液冷部署行動和計劃。

筆者收集了數據中心對液冷技術的諸多顧慮:

可靠性。數據中心第一要務是保障業(yè)務連續(xù)性,浸沒和噴淋式會直接接觸電子器件,是否會出現器件腐蝕情況,包括冷板式在內,冷卻液泄露怎么辦,服務器功能和使用壽命是否會受影響,液冷技術的可靠性是數據中心、用戶的最大擔憂。

部署難度。液冷不僅僅改變制冷系統(tǒng),數據中心的服務器、網絡設備、監(jiān)控系統(tǒng)等都要隨之改變,新建數據中心從設計到建設、調試運維都與此前不同,此前項目經驗等無法復用,周期長難度大。存量數據中心的承重、管路等設計因循傳統(tǒng)機架,如果進行液冷部署改造,同樣會帶來新增成本、部署難度問題。

運維與售后。無論冷板、浸沒還是噴淋,液體進入到IT機柜內部,給建設、測試和運維帶來新的挑戰(zhàn),目前缺乏成熟的運維經驗和標準化要求。此外,有數據中心提出,液冷的服務器等產品售后維修政策也尚不成熟。成本。雖然液冷能耗低所以數據中心OpEx降低,但前期CapEx明顯高于風冷數據中心。哪怕忽視液冷服務器、CDU等設備的價格,單冷卻液價格也并非小數目,阿里云就曾對外表示“使用的冷卻液價格堪比茅臺”。除去上述疑慮,數據中心對液冷“謹慎”的最根本原因,在于液冷的市場接受度——數據中心的互聯網、電商、視頻、金融等用戶大多尚不接受液冷。液冷主流成必然爆發(fā)尚欠一陣風。

提高新技術的接受度是一個漫長的過程,如今政策為液冷按下了快進鍵。由于用電量大,社會普遍將數據中心定義為高耗能產業(yè),隨著“2030年碳達峰、2060年碳中和” 戰(zhàn)略目標提出,數據中心面臨的能耗限制愈來愈嚴。2021年7月,工信部印發(fā)的《新型數據中心發(fā)展三年行動計劃(2021-2023年)》要求:“到2023年底,新建大型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區(qū)力爭降低到1.25以下。”2021年12月,發(fā)改委等四部門發(fā)布的《貫徹落實碳達峰碳中和目標要求推動數據中心和 5G 等新型基礎設施綠色高質量發(fā)展實施方案》表示“新建大型、超大型數據中心電能利用效率不高于 1.3,逐步對電能利用效率超過 1.5 的數據中心進行節(jié)能降碳改造?!?span style="background-image: initial; background-position: initial; background-size: initial; background-repeat: initial; background-attachment: initial; background-origin: initial; background-clip: initial;">中央及各級主管部門政策對數據中心PUE考核提出更嚴要求,各地能評指標持續(xù)收緊,數據中心面臨前所未有的能耗和散熱挑戰(zhàn)。多位數據中心企業(yè)高管向筆者表示,上述政策的出臺,使得“液冷成為必然”,嚴格政策限制下“數據中心要想合規(guī),PUE值再繼續(xù)往下降,只能靠液冷了?!?/span>過去一年以來,雙碳政策助推下,液冷技術的研發(fā)投入加大、產品和技術成熟度不斷提高,液冷在數據中心的發(fā)展前景毋庸置疑。但要想實現液冷在數據中心的爆發(fā),不僅僅欠缺全產業(yè)的共同努力,欠缺更多行業(yè)標準的制定與完善,還差一場風,一場擁有最強驅動力的風——市場需求。從萌芽到如今再度興起,液冷的發(fā)展始終源于計算的散熱。如今政策、技術條件都已經具備,當下一波海量數據計算爆發(fā)式增長,帶動市場對數據中心的需求爆發(fā)時,液冷才將真正迎來在數據中心的爆發(fā)。這個時間或許是兩年后、四年后,又或許,很快來臨。

| 文章來源:中國IDC圈

【專欄】IDC市場研究報告

重要通知

 原文轉載自廠商踴躍、數據中心觀望 液冷距離爆發(fā)還差一場風 (qq.com)

免責聲明:文章來源網絡;本站致力于好文推送,基于分享目的轉載,尊重原創(chuàng),版權歸原作者所有,如有侵權,請聯系我們予以刪除,資料僅供私下交流學習使用。


返回頂部