PR

 三つ目の課題は、発熱に関するものだ。タワー型やラックマウント型に比べて多数のプロセサが密集するため、ブレード・サーバーは同一設置面積当たりの発熱量が通常のサーバーよりも高くなりやすい(図10)。

図10●単位面積当たりの冷却コストの比較
図10●単位面積当たりの冷却コストの比較
単位面積当たりの電力と冷却コストの比率は、ブレード・サーバーが大きな伸びを示す

 オリンパスの武田順一コーポレートセンターIT基盤技術部 運用基盤グループ グループリーダーは、「導入してから気づいたが、ブレード・サーバーの後ろに熱だまりができていた。これまでは経験したことがないほどの熱さだ」と打ち明ける。

 ブレード・サーバーは、前面から吸気して背面に排気するものが多い。排気された熱気が滞留したための現象である。オリンパスの場合、「測ってみたら、ラックマウント型の4倍以上の温度だった。ただでさえサーバーの発熱の高さが問題になっていたのに、拍車がかかった気がする」(同)。

 ブレード・サーバーの消費電力は、「一般的に言って、性能とプロセサが同じなら、ラックマウント型サーバーより20~30%少ない」(デルの中村智エンタープライズマーケティング本部プロダクトマーケティング部長)。ブレード間で部品を共有して、電力を消費する部品点数を減らしているためだ。絶対的な発熱量も低い。

 だが、ブレード・サーバーにはラックマウント型の半分程度しかない面積に、同等な数のプロセサやメモリーが密集する。サーバー・モジュール内やきょう体内で冷却風を効率的に流すのが難しかったり、きょう体の背面から排気する熱せられた空気が一カ所にたまったりしやすい。熱くなったブレード・サーバーの背後を冷やそうとしてマシンルームの冷房を強くすると、ブレード・サーバー以外の部分が冷えすぎて、冷却のための電気代が不必要に高くなってしまう。

 ブレードに限らず、データセンターで利用するサーバーの台数が急増するにつれ、消費電力を含めた発熱量の抑制は、切迫した課題になっている。すでにメーカー自身も積極的な対策に乗り出した。

メーカーも対策に本腰

 米IBMは06年8月、ブレード・サーバーを中心にしたサーバー冷却技術「Cool Blue」を発表した。水冷方式による冷却機能を備えたサーバー・ラックを、IBMは日本でも製品化している。07年中には、サーバーの負荷に応じて消費電力を動的に制御するソフトを出荷する計画である。

 日本HPはc-Classから採用した新設計の冷却ファンによって、シャシー内の排熱効率を従来比3倍に高めた。これだけでは対策が不十分とみて、来春にはデータセンター全体の温度を動的に制御するサービスを開始する。

 日本のメーカーも同様に、サーバー・モジュールや冷却ファンの設計などで、熱問題に取り組んでいる。例えば日立は、「サーバー・モジュールに流入する空気の温度が、35度まで上がっても大丈夫なように、サーバー・モジュール内部の空流や冷却ファンを設計している」(有田担当部長)。NECはスーパーコンピュータの技術を取り入れ、SIGMABLADEの電源モジュールや冷却ファンを設計。富士通も空流シミュレーションを駆使して、ブレード内の冷却効率を高めている。

業界全体が進化のため協業すべき

 ここまでに挙げた課題を解決するには、ハードを改良するだけでは不十分だ。熱問題を例に挙げれば、「サーバー単体の対策では限界がある。プロセサやチップセットのレベルから、熱設計を検討しなければならない。サーバーを設置するデータセンター全体の熱効率の改善を考えることも必要だ」(ブレード・サーバーの導入実績の豊富な伊藤忠テクノソリューションズ プロダクトマーケティング1部ソリューション企画第1課の照井一由氏)。

 ユーティリティ化した次世代のITインフラとしても、ブレード・サーバーの処理性能や信頼性は発展途上にある。今まで以上に大規模で高信頼な処理をこなすためには、サーバー間の接続機構の高速化や複数プロセサによる並列処理機能の改良、部品自体の信頼性向上など、大型のSMPサーバーが備えるような技術強化も必要になるだろう。

 シャシーとブレードの互換性に関しても、1社の努力では改善することは不可能に近い。次世代のITインフラに進化するためには、プロセサ・メーカーやソフト・ベンダーを含めた、業界全体での取り組みが望まれる。

 すでに米IBMは04年9月、同社製ブレード・サーバーのシャシーの仕様を公開した。その狙いは、ネットワーク機器やストレージ機器のベンダーが、この仕様に沿ったLAN用ネットワーク・カードやファイバ・チャネル用アダプタなどを容易に開発できるようにすることだ。この取り組みには米インテルも協力している。同様な動きが活発になれば、互換性の問題が解決する可能性は高まる。