PR

8月14日早朝、首都圏の約140万世帯で大規模停電が発生。企業の情報システムに及んだ影響は、全体としては軽微だった。ただ、停電対策が万全なはずのデータセンターでもトラブルが発生。予備電源のチェックを怠らないことの重要性が再認識された。


本記事は日経コンピュータ 9月4日号に掲載予定のレポートより、本文のみを抜き出したものです。そのため図や表が割愛されていることをご了承ください。

 大規模停電当日、大きな障害に見舞われたのは、ビットアイルが運営するデータセンターだった。同センターを利用しているJTBの旅行予約サービスでは、インターネット経由の予約システムが海外のホテルを除いて午前8時過ぎから午後2時まで停止した。この日のネット経由の取扱高は、この時期の平均に比べて約4億円少なかった。

 通常、データセンターでは、停電が発生すると、まずUPS(無停電電源装置)がサーバーに電力を供給し、長時間運用できる自家発電装置に切り替える。しかし、このデータセンターでは、発電装置が稼働しなかった。

 7時58分の停電発生直後は一時的にUPSに切り替わったが、10分程度しかもたず、8時8分にデータセンターの電源が落ちてしまった。同センターを利用する別のユーザー企業の担当者は、「ビットアイルの運用管理や電話のシステムも動作していなかったため、障害のアラートも伝わらず、連絡さえ取れなかった」と証言する。

 発電装置が稼働しなかった原因は、複数の発電機を並列運転するために必要な「同期用遮断機制御用リレー」が故障していたこと。発電機間における交流電流の位相を同期させるための機器である。同社は発電機の動作を毎週確認していたが、「リレーを含めた動作確認は年1回しか実施していなかった」(事故報告を受けた関係者)。

 その後、8時25分には東京電力からの電力供給が再開したものの、今度は過電流によりUPSが故障。想定外の事態が発生したため、取り換えに約1時間かかり、9時40分にようやくビットアイルの電源が回復した。

 また、携帯電話でテレビ番組の情報を提供する「Gガイド番組表リモコン」のシステムでは、「サービス自体は早期に再開したものの、データベース・サーバーの冗長構成を復旧させるまで3日程度かかった」(運営会社であるテックファームの小林正興副社長)。停電により、正常な終了プロセスを経ずに、サーバーがダウンしたためだ。

 このシステムでは、2台のサーバーをOracleの機能を用いてクラスタリング構成で運用していたが、サーバー間の同期に必要なOracle内部のデータに不整合が生じたため、1台しか起動できなかった。結局、ベンダーの助けを借りて復旧した。

 障害が明らかになったケースは、このほかに数件あった(表)。花き卸の大田花きでは、市場取引システムが午前8時から約2時間停止したが、「お盆で取引量が少なく、取引終了時刻までに処理が間に合った」(同社の情報システム本部)という。大規模な停電だったにもかかわらず、企業の事業活動への影響は軽微だったといえる。ただ、表面化したトラブルはいずれも予備電源が正常に稼働していれば防げただけに、チェックを怠らないことの重要性が再認識された。

(森側 真一、目次 康男、安藤 正芳)