機房節能未達止境 降低PUE仍待努力 智慧應用 影音
MongoDB
ST Microsite

機房節能未達止境 降低PUE仍待努力

  • DIGITIMES企劃

採取伺服器虛擬化及整併,固然是降低PUE、打造綠色機房的重要步驟,但資料中心節能大計,絕不僅止於此單一措施。來源:liquidtechnology.net
採取伺服器虛擬化及整併,固然是降低PUE、打造綠色機房的重要步驟,但資料中心節能大計,絕不僅止於此單一措施。來源:liquidtechnology.net

今時今日,不論已開發或開發中國家,都無可避免面臨氣候變遷的嚴峻考驗,為了克服隨之而來的自然、生態、經濟、社會、健康等諸多挑戰,也讓節能減碳成為至高無上的顯學;在此前提下,機房管理的先決任務,就在於節能!

根據美國能源部的數據顯示,資料中心(Data Center)的能耗,為同等面積辦公室的100倍之多。單就台灣而論,根據經濟部能源局所發布的「非生產性質行業能源查核年報」,電信機房的單位面積年用電量密度,始終高懸各大應用場域的第一位,動輒達到900度?平方公尺之上,超越量販店或百貨公司約300度?平方公尺甚多。

事實上,經由電信或IT機房所產生的全球二氧化碳排放量,現已衝高至8.6億頓以上,而伴隨科技應用日新月異,全球各國對於運算、資料儲存、網路通信的需求仍持續攀升,儘管有識之士已意識到此一問題的嚴重性,近幾年來致力提高IT設備、機房基礎設施,乃至資料中心的能源使用效率,但預估至2020年時,全球IT相關碳排放量仍將達15.4億噸,幾乎較當前水準翻了一倍。

因此,綠色資料中心已成為眾所矚目的熱門議題,以此為主題的研討會場次,近幾年來明顯激增,且不論議程或講師安排重疊與否,場場都猶如吸票機,吸引廣大IT從業人員聆聽取經。

說到這裡,難免有企業或機構備感委屈,直言其並非漠視節能減碳的重要性,也深知一昧放任用電量的增長,亦將導致營運成本飆高,簡直百害而無一利。

但不可否認,資料中心乃是企業營運的命脈,隨著使用者人數增多、應用服務型態趨於複雜,再加上資料量不斷擴增,分分秒秒都得仰賴資料中心之恆常運作,因此盱衡企業營運發展的永續性、機房能耗的節約,自認已權衡輕重採取必要措施,大舉採用高密度伺服器、甚至虛擬主機,冀望衝高每瓦運算效能,藉以抑制機房能耗的飆升。

但企業或機構對於機房節能的努力,若僅止於上述舉措,而罔顧其餘更應關切的面向,那麼無異是杯水車薪、於事無補。當企業致力提高每瓦運算效能,反倒可能見獵心喜,因而在相同機房或機櫃空間之內,部署更多伺服器,導致機房整體的電力及空調使用需求攀升,使得用電量不減反增,亦可能將基礎設備推向承載負荷的飽和點,危及現有IT設備的穩定性,更縮限了隨業務成長部署新設備的空間。

為何追求運算密度、每瓦效能的提升,未必能使機房能耗同步降低?如果仔細檢視能源使用效率(Power Usage Effectiveness;PUE)、資料中心基礎效率(Data Center Infrastructure Efficiency;DCiE)等指標的內涵,理應不難參透箇中玄機。

所謂PUE,乃是經由Green Grid提出、並為ASHRAE證明過的實用性指標,其計算公式為「機房總耗電量」除以「IT設備總耗電量」;此處所指的IT設備,不僅含括了運算、儲存、網路通訊等主要應用領域,也一併涵蓋KVM切換器等輔助設備。至於DCiE,基本上就是PUE倒數,兩者可謂殊途同歸,此處則不再對此細究。

至於機房總耗電量,理所當然囊括上述一干IT設備的能耗,除此之外,舉凡不斷電系統(UPS)、發電機、電動閥、開關、蓄電池等電力相關設備(連同配電損失),諸如冰水機組、水泵、直膨箱型冷氣機CRAC、風機、冷卻水塔等攸關冷卻的相關設備,乃至於機房內部的照明,這些琳瑯滿目裝置所產生的功耗,全都得算在機房總耗電量之列。

教育部過去初步量測部分國立學校機房的PUE平均值,大抵落在2.99水準,若以此為論述基準,則意謂1台需要耗電500W的伺服器,伴隨其持續運轉,則前述眾多基礎設施就得它消耗近995W電力,如果某機房內有20台伺服器,那麼總耗電量即為29.9kW。

承前例,用戶若決定採行高密度伺服器與虛擬主機,假設可使單台伺服器平均功耗需求降至350W,看似大減了3成能耗,但也代表原有的機房或機櫃空間內,也會增加配置更多主機,好讓用戶更有效支應業務推展需求,縱使用戶以不擴增現有基礎設施容量為前提,將伺服器數量小增至28台,則此部分的總耗電量為9.8kW,連帶迫使基礎設施消耗19.51kW電力,此時粗估機房總耗電量為29.3kW,與上述數值相較,可說原地踏步。

由此可見,降至運算系統的單位能耗,固然是邁向機房節能的必要起點,但若未同步施展更多必要措施,還任由其他諸多「不節能」因子持續存在,那麼PUE並不會隨之下滑,耗電情況也一如往常。

按照Green Grid所頒布的標準,PUE小於1.25即是「白金級」,介於1.25?1.43是「黃金級」,介於1.43?1.67是「銀級」,介於1.67?2是「銅級」,介於2?2.5只能算是「一般」,超過2.5就判定為「不節能」;如果用戶的機房PUE達到2.99水準,象徵其能源使用效率嚴重不及格,亟需改善的環節所在多有,怎可能自以為是地冀望透過屈屈的有限作為,即能換取可觀的節能成效?

IT設備虛擬化與整併  僅是節能第一步

根據經濟部能源局所發布的「電信網路機房節能應用技術手冊」,台灣資訊機房PUE平均實際量測結果約為1.9以上,若取其中採用300噸以上之中央空調冰水主機系統資訊機房,雖然還未到LEED的基本申請門檻(PUE值1.52以下),但至少不像前述2.99數值如此駭人聽聞,不過無論如何,一定有其改善空間。

PUE數值之所以會居高不下,在電信網路機房節能應用技術手冊之中,也歸納了多項常見因素。首先是IT設備無節能管理、無虛擬化與整併技術,造成負載常定之高耗能現象;第二是回風設計主要採無風管之直接回風,造成氣流短循環,氣流無法有效率地冷卻機櫃;第三是回風口與出風口太接近,造成氣流短循環,氣流無法有效率地冷卻機櫃。

第四是無冷熱通道之設計及短循環之回風,造成機房溫度場混亂,以致於造成空調箱之溫控感測點不易設置,空調箱及冰機控制失序,頻繁切換,並導致系統不穩定運轉及容易故障之風險;第五是冰機超量設計之現象,冰水進出口溫差小,起停頻繁;第六是使用濕盤管及低溫冰水,造成除濕過度及再加濕之能源浪費。

第七是冰水主機老舊及過大設計造成低效率運轉;第八是配線系統雜亂造成氣流受阻、系統更新不易;第九是不適當之高架地板開口造成氣流分配不均勻、氣流洩漏嚴重;第十是UPS及配電系統過大設計,造成電力系統低負載、低效率之運轉。

當然,可能導致PUE高檔盤旋的潛在原因,容或不僅止於前述10項,但這10個常見現象,一旦不加以解決,確實會讓該資訊機房與「綠色」二字相距甚遠,如何縮短其間差異、進而朝向Green Grid所定義的銀級、黃金級甚或白金級前進?

企業機構所需做足的基本功課,著實還有不少;最起碼,本文描述有企業採用高密度伺服器或虛擬主機,充其量只解決了10大難題當中的第一項,剩下的9項事,亦應通盤詳加檢視、謀求因應改善之道。