PR

 消費電力と冷却の問題が,Part1のワークステーション以上に切実になのがサーバーだ。単独で設置されることの多いワークステーションと異なり,サーバーはデータ・センターなどの限られたスペースに,大量の台数を設置することが多い。しかし,サーバーから排出される熱を適切に処理できなければ,物理的には設置できるはずの台数も,それ以下に制限されてしまう。

 この問題を解決するには2つの方向がある。1つはPart3で紹介する,データ・センターの空調能力の強化/最適化。もう1つが,サーバー自体の排熱性能の向上と熱の発生を抑止する方向だ。

排熱拡散防ぎ,冷却効率高める

 「サーバーの消費電力の7割はCPUによるもの」と指摘するのは,日本ヒューレット・パッカード(日本HP)でブレード・サーバーのマーケティングを担当する山中伸吾氏。2000年から2001年にかけて,米IntelはPentium4とXeonにNetBurstアーキテクチャを採用し,それ以降プロセサのクロック周波数の高速化が一気に進んだ。2001年当時と現在とを比べると,CPUの消費電力は4年で5倍近く上がった。やはり2001年ごろに出荷が始まったブレード・サーバーは,省スペースを売り物にしており,集積度が高いため,熱の問題が顕在化しやすい。この結果,「1992年に2.1kWに過ぎなかったラックあたりの消費電力は,2005年には14kWにまで膨れ上がっている」(山中氏)という。

 サーバーの熱対策の基本は,排熱性能を高めることと発熱の抑止である。ここでは,サーバー単体の熱対策と,ラック単位の熱対策について,合わせて説明する。

逃がした熱は二度と取り込まない

写真1 日本HPが新しく採用した冷却ファン
写真1 日本HPが新しく採用した冷却ファン

 排熱性能を上げるためには,サーバーのきょう体や冷却ファン,ラックへの搭載方法などを工夫する必要がある。

 きょう体の排熱性能は,冷却ファンによるところが大きい(写真1)。日本HPは,初代ブレードサーバーから5年ぶりに,新しいきょう体と冷却ファンを開発,以前よりも30%集積度を高めることに成功した。2006年8月に出荷を始めた「HP BladeSystem c-Class」である。

 新型冷却ファンの特徴は,排気の拡散を抑える指向性の高さである。冷却ファンの筒は長さ10cmほどもあり,排気の拡散を抑えられる(図1)。径は8cmで,筒の中央に羽根が1基ある。羽根の回転数は毎分2万回転。この回転数だと通常,遠心力でたわみが発生するため,羽根と筒の隙間に余裕を持たせるのが一般的だ。しかし,隙間に余裕があると,排気の指向性が低くなる。そこで,日本HPは羽根を剛性の高いマグネシウム合金で実装。回転時にたわみが発生しないようにして,隙間を最小限に抑えている。

 ラック単位の熱対策は,排熱のための空気の流れを制御するのが基本である。例えば,日本HPのブレード・サーバーは,サーバーの吸気温度を35度以下と定めている。万が一,サーバーからの排気の多くがそのまま吸気側に回り込む状態になると,吸気温度が35度を超えてしまう危険性がある(図2)

図1 HP BladeSystem c-Classが採用する冷却ファン   図1 HP BladeSystem c-Classが採用する冷却ファン
ファンの形状を細長くすることで排気の指向性を確保し,排気を吸入しにくくしている。さらに,ファンの羽根と筒の隙間を減らして排気の拡散を抑える工夫として,ファン回転時の遠心力で形状がたゆまないよう羽根をジュラルミンで実装した
図2 排気を吸入しないためには,ラックの空き領域にパネルを設置する   図2 排気を吸入しないためには,ラックの空き領域にパネルを設置する
ラックにサーバー機を設置する際には,サーバー機背面からの排気を可能な限り吸入しないようにする必要がある。具体的には,複数のサーバー機を一カ所にまとめて隙間を作らないようにすることと,ラックの空き領域をパネルでふさぐ


 サーバーは通常,前面から吸気して,背面から排気する。いったん放出した高温の排気を再び吸入しないためには,ラックの背面同士,前面同士が向き合うように配置することが重要だ。また,ラック内ではサーバーを1ヵ所にまとめて設置し,排気が前面に回りこまないようにする。ラックの空いているスペースは,前面に空気の吸入を防ぐための遮断パネルを付けるのが基本である。

 ラック単位での最強の熱対策としては,水冷も選択可能だ。日本HPはラック冷却関連製品「HPモジュラークーリングシステム」のオプションとして水冷ユニットを用意している。空気を閉じ込めた密閉式のラックと,水を用いた冷却ユニットを組み合わせる。冷たい水を取り込む水道管と温まった水を排出する水道管の2本の水道管を搭載し,水道管設備を持つデータ・センターとの組み合わせで実現する。

 水冷の排熱効果は極めて高い。ただし山中氏は「水道管のメンテナンス・コストなどは,通常の空調に比べて非常に高くなる」と,そのデメリットも指摘する。クリティカルな用途など,本当に必要な場面にだけ,選択的に適用する手段が水冷ラックである。

負荷に合わせてクロックを制御して発熱を抑える

 サーバー自体の発熱を抑止する対策には,まず省電力型プロセサの採用がある。それに加えて,CPU使用率が低い場合には,CPUの動作クロックを下げて電源供給を減らす。これには,サーバーが動作クロックと供給電源を制御するためのハードウエア監視機能を持つことが前提となる。

 日本HPの場合,最新型サーバーの多くが,CPU利用率が80%になるようクロック周波数を制御する。CPU利用率が80%に達するまでは,性能の低下はないからだ。これで「消費電力を18%下げられる」(山中氏)。ハードウエア監視機能はOS上で動作するソフトウエアではなく,BIOSのレベルで実施する。

 さらに,ブレードサーバー用のきょう体(エンクロージャ)全体でCPU利用率の総和を監視して,必要な電源だけを供給する。エンクロージャには,4台から6台の電源(電源供給器)があり,1台あたり1250Wの性能を持つ。複数の電源を複数のブレードが共有する仕組みである。エンクロージャ全体のCPU利用率が低ければ,必要な電源をオフにして,供給する電力を減らす。

水冷技術で「空調限界」に挑む

 「サーバー機本体の冷却はもちろん大切だが,それは“局所的”な対応でしかない」。日本IBMの榊 幹雄ICPシニアコンサルティング I/Tスペシャリストは,こう指摘する。

 サーバーから排出された熱は,サーバーを設置した部屋や建物内に放出される。「熱量保存の法則」を思い出せばわかるように,サーバー機の内側で発生した熱を部屋や建物に“転嫁”したに過ぎない。コンピュータを設置した部屋に空調を効かせて,一定以下の温度を保っているのはそのためだ。

 しかし,このような場当たり的な対応も限界に近づいているようだ。最近,特にデータセンターで問題になっているのが「空調限界」。部屋内に設置したサーバー機からの排熱があまりにも多いため,空調でいくら冷やしたところで部屋の温度は下がらない,という現象である。

 榊スペシャリストは,「特にブレード・サーバーを大量に導入しているデータセンターで,こうした空調限界の問題を抱えているケースが多い」と言う。ブレード・サーバーは,体積当たりのCPU搭載数が通常のサーバー機より多いからだ。特に大きな熱源の一つであるプロセサの集積度が高ければ高いほど,効果的な熱処理が求められる。こうなると,「サーバーだけでなく,コンピュータ・ルームや建物全体を含めた冷却システムを考えなければどうにもならない」(榊スペシャリスト)。熱とITの闘いは,新たな局面を迎えつつある。

 そこで米IBMが今年2月に投入したのが,「Rear Door Heat Exchanger」。IBMが1970年代から導入してきた水冷の仕組みを適用した,ラック用の冷却装置だ。

 図3を見てほしい。ブレード・サーバーを差し込むシャーシの後部ドア(Rear Door)にラジエータ(熱交換機)が組み込んである。ブレード・サーバーの熱は,シャーシ前面からのファンの風で後部に送られる。この後部ドアを介して,冷却された空気が外に出る。冷却に使ったラジエータの水は,水冷ポンプを使って建物の屋上などに設置した冷却機に送る。ここで水の熱を建物外に放散させ,再びコンピュータ・ルームに戻ってラジエータに流し込む,という仕組みだ。熱を建物の外に逃がすので,部屋にはこもらない。

 IBMによると,このラジエータで,ブレード・サーバー群から発せられる熱の約50%を吸い取ることが可能という。「この仕組みを導入すれば,データセンターは空調設備を増強せずに,倍近い台数のサーバーを導入できる。当社がRear Door Heat Exchangerを発表して以来,データセンターからの問い合わせが非常に多い」(IBMの榊スペシャリスト)。

図3 米IBMの「Rear Door Heat Exchanger」
図3 米IBMの「Rear Door Heat Exchanger」
写真右中央の後部ドアにラジエータが組み込まれている

長年使われてきた「実証済み技術」を適用

 この仕組みは,サーバー機単体でも使用している水空冷の仕組みを,建物全体に“拡張”したもの。IBMはUNIXサーバー「SYSTEM p5」シリーズをはじめ主要サーバー機の一部に,水冷の仕組みを導入している。プロセサを詰め込んだパッケージに触れされて暖まった水を,ラジエータで外気に触れさせて冷却。冷却した水を再びプロセサへと流し込む。ラジエータはきょう体の上部に設置している。

 もともとIBMは1970年代から,メインフレームに水冷の仕組みを適用してきた。ここにきてUNIXサーバーやIAサーバーにもメインフレームと同様,熱問題が浮上。そこでメインフレームで実績のあるプルーブン・テクノロジー(実証済み技術)をサーバー機やラックにも適用した,というわけだ。「サーバーの冷却を空冷だけに頼るのは難しい。水はもっともコストが安く,効率の良い冷却方法。サーバーの熱問題は,当面の間は水で対応できるだろう」と榊スペシャリストは説明する。

“静かな市場”を切り開く冷却技術

 「水冷化」のトレンドは,大規模サーバーにはとどまらない。オフィス内や店頭に設置するような中・小型サーバーにも,水冷のトレンドが押し寄せている。後押ししているのは,サーバーの「静かさ」を求めるユーザーの声だ。

 NECは2004年10月に,同社として初めて水冷方式を採用したタワー型サーバー「Express5800/110Ca」を出荷した。現在は「Express 5800/120Li」や「同/110Gb-C」など,今年2月から8月にかけて出荷した4機種に水冷方式を採用している。Part1で紹介した“水冷ワークステーション”の仕組みをそのまま,あるいはモジュールのサイズなどを改変して適用したものである。

 売りはその静かさ。NECによると,音の大きさは最大30dB(デシベル)。「普通のオフィスに設置している場合であれば,まず動作音には気付かない」(NECの富田秀明クライアント・サーバ事業部第二技術部技術マネージャー)という。

 水冷サーバーが狙う市場は「快適性」を求めるユーザーだ。「最近,病院,店舗,図書館,あるいは個人事業主が自宅にサーバーを設置するケースが増えている。これらの場所では,ファンの音は非常に邪魔な存在だ。騒音が少ないサーバーが欲しいというユーザーが増えており,それに応えるべく商品化した」とNECの本永実クライアント・サーバ販売推進本部マネージャーは説明する。

 NECのライバル,富士通も黙ってはいない。NECの発表から半年後の2005年5月,富士通は冷却装置としてヒートパイプを採用した中小規模向けサーバー機「PRIMERGY TX200 S2」を出荷し,“静かな市場”に参入した。今年6月には,後継機種の「同TX200 S3」を発表。またローエンド向け製品として「TX150 S4」を5月に発表済みである。プロセサにヒートパイプを装着して冷却効率を向上。これにより,搭載するファンの数やファンの回転数を押さえて,静かさを追及したのがポイントである。ファンはCPUの動作状況に応じて回転数を自動制御するので,さらに省電力と静かさを追及できる。

 プロセサで発生した熱は,CPUに密着させたヒートパイプを経由しラジエータに伝わる。そしてラジエータの熱を,ファンで外部に逃がす仕組みだ(図4)

 オペレーション時の音は,TX150 S4が36dB,TX200 S3が37dB。NECの水冷サーバーには数値上は及ばないものの,匹敵すると言って良い数値である。「SOHOにもサーバーのニーズが広がり,席のすぐそばにマシンを設置するケースが増えてきた。ヒートパイプ付きのサーバーは,こうした静かさを求めるユーザーの声を受けて開発した」(富士通)。

図4 富士通がサーバー機に採用した「ヒートパイプ」(中央奥)
図4 富士通がサーバー機に採用した「ヒートパイプ」(中央奥)
プロセサとラジエータをつなぎ,熱の伝達を促す

サーバーにも求められる快適性能

 「水冷式のマシンで,潜在的なニーズを喚起できた」とNECの小竹章博クライアント・サーバ販売推進本部マネージャーは見る。「これまでファンの音は仕方がない,とあきらめていたユーザーが,水冷サーバーの静かさに驚き,サーバーの買い換えを進めている」。

 「快適性能」は,何も自家用車など個人向け市場に閉じた話題ではない。人間が存在するところならどこでも,それこそ職場でも求められている。IT,こと“裏方”に位置するサーバーも,いまどきは快適性能を無視できない。