如何評價阿里「麒麟」 全浸沒液冷資料中心在技術領域應用

時間 2021-05-11 16:01:06

1樓:

其實沒什麼好黑的。

阿里一直是在一步一步走的。

好的方面:

關於阿里硬體方面引入新技術(特指大規模部署的情況下):

阿里引入一種伺服器的時間週期很長,大概一種新硬體出現到線上大規模部署的中間間隔時間一般在兩年以上。中間並不僅僅是觀望,而是實打實的進行測試。

其實摩爾定律已經不太靈了,intel也都一直在被人說擠牙膏。

關於阿里自行研製(組裝)的硬體:

阿里自己根據自己在硬體方面的經驗,也提供了一套伺服器組裝標準,可以自行組裝自己認為合適的硬體。

關於浸沒液冷:

散熱和用電是IDC的最頭疼的問題。谷歌當年選擇在俄羅斯一水電站周圍建立資料中心的原因便是發電和降溫。阿里在千島湖建立資料中心的原因之一也是散熱。

浸沒液冷,算是將近十年的老東西了,但是實際上用起來的地方還是不多,大多數機房還停留在普通機架伺服器+空調的時代,大部分IDC沒有能力也沒有必要做這個事情,只有幾個壟斷性的巨頭必須在這條路上更進一步。

舉個例子,

許多大中型的網際網路公司都會有多個資料中心(機房),一般都是租用,機房/機櫃到期要麼續租要麼退掉。這種體量的公司做液冷是費力不討好,不好維護,浸沒液冷存在的問題想一想就知道了。對於這種公司來說,不如平時做好運維。

只有BAT這種體量的公司,在各地會自建機房。也只有BAT這種體量的公司,才有採用浸沒液冷的動機。

2樓:王大爺

從業人員,浸沒液冷已經搞了好多年了,目前的話成型的只有兩種吧,關鍵在於不好維護,此外阿里的這種液體應該很貴,有興趣的可以去看下3M的專利技術,算不上黑科技

3樓:jason

首先,這個PUE確實diao

要知道北京、上海等地都規定資料中心的PUE不得高於1.5,而中國資料中心的PUE平均值大約在2.5左右,貌似阿里把PUE做到了1.03,這個數字對業內還是很震撼的

這幾年,大型資料中心都在往低溫的地理位置建造

主要原因就是伺服器的散熱成本已經很大程度上影響到整體成本

除了環境溫度低,地價、電價便宜也是主要因素,Facebook把資料中心建在了離北極圈不到100公里的位置,就是出於三方面綜合考慮

摩爾定律差不多還能延續個10年,計算的效能基本壓榨得差不多了,最佳的辦法就是找另外一條出路,比如量子計算。

同樣的道理,資料中心越建越大,邊際成本也越來越高

其實在DIY領域,這種浸沒式的液冷10多年前就有應用了,但做到伺服器集群或者說是資料中心還是頭一次

阿里向來是業務推動技術創新的

所以我想這個解決方案應該是基於阿里對資料中心的強烈需求

谷歌有TPU,阿里有麒麟,乙個正向思維,乙個逆向思維,殊途同歸

如何評價iqoo的超級液冷散熱?

tom peeping 只是比較普通的導熱管 heat pipe 技術,這個技術1963年就發明出來了,在航天 航空 工業 科技等多個領域都有廣泛的應用,而2013年的時候NEC就使用過該散熱技術應用到手機上,而2015年的時候還被360稱之為衛星散熱技術,當然實際上確實很多衛星也在使用熱管技術散熱...

如何評價阿里文學?

紀元 新書審核了十多天,一直顯示審核中,沒有答覆,我能怎麼辦,我很絕望。等他出來,我墳頭草怕有幾丈高了。閱文,17K,飛盧 都是幾個小時通過。細節決定成敗,本人對阿里文學相當不看好。 我是阿里文學的乙個作者,只想說乙個現象。阿里文學現在後台資料不是透明化了嗎,能看到自己的訂閱。我買了五十書豆看自己的...

如何評價德雲社郭麒麟?

我是德雲社粉絲,但是不是大林粉絲,給我的感覺就是,覺得他挺不容易的,挺累的。他不是我喜歡的型別,他太追求完美,以至於不夠真實。不過在他的位置也沒辦法,畢竟他爸老早就說了生子當如郭麒麟這樣的話了,不完美怎麼辦呢?總感覺他端著架子,不過可能也是其他人總喜歡架著他的原因,反正挺不容易的。希望他能大火,畢竟...