PR
写真●日本IBMの理事・ソフトウエア事業インフォメーション・マネジメント事業部長の塚本眞一氏(写真:中根 祥文)
写真●日本IBMの理事・ソフトウエア事業インフォメーション・マネジメント事業部長の塚本眞一氏(写真:中根 祥文)
[画像のクリックで拡大表示]

 「1日に数ペタバイトという規模のビッグデータを経営に生かした成功例は既に出始めている」。日本IBMの塚本眞一・理事・インフォメーション・マネジメント事業部長は、2012年2月29日、クラウドコンピューティング専門展「Cloud Days Tokyo/スマートフォン&タブレット/ビッグデータEXPO」で講演。これまでの構造化されたデータに、「ビッグデータと呼ばれる新たな種類のデータを掛け合わせることで、より精緻で効率的な分析や経営戦略をとることができる」、とビッグデータに取り組む重要性を強調した。

 塚本氏がまず紹介したのは、世界で扱われるデータ量の推移。「2005年、世界中で取り扱われる情報量は1ペタバイトを突破したと言われていた。だがこれが2010年にはゼタバイトクラスになった。わずか5年でデータ量は100万倍に増えた」。「一方、2010年時点では、世界のインターネットユーザーは20億人と言われている。これは普及率で言えばまだ30%に過ぎない。クラウドによって新たなサービスがどんどん普及していくことも踏まえれば、世界中で扱われるデータの規模はこれからもどんどん伸びる。2020年には35ゼタバイトを突破するとの予想もあるが、それも予想に過ぎずもっと上になるかもしれない」と展望した。

Volume、Variety、Velocityの三つがビッグデータの特徴」

 塚本氏によれば、この増え続けるビッグデータの特徴は、「三つのV」で表されるという。「すなわち、『Volume(量)』『Variety(多様性)』、『Velocity』(頻度、速度)」だ」(塚本氏)。

 Volumeは冒頭に紹介した推移の通り。「ITの活用によって、証券取引、学術研究などでは1日だけで数十テラバイトクラスの取引データや実験データが発生している」(塚本氏)。この推移を押し上げているのが、非構造化データと言われる、ネットサービスの視聴・使用履歴や、人の移動する位置情報など多種多様な(Variety)データである。「これまでデータベースに蓄積していた構造化されたデータに比べ、こうした非構造化データが世界中のデータの8割を占めると言われている」(塚本氏)。

 三つ目の特徴であるVelocityとは、これらのデータが、リアルタイムに発生し、流れているということ。「これまでのように蓄積したデータをバッチで処理するのではなく、流れている最中にリアルタイムに処理する必要がある」(塚本氏)。

 「これらのデータをいかに扱って経営戦略に生かしていくか」。この視点で塚本氏が紹介したのが、「マネーボール」という映画にもなった米大リーグのオークランド・アスレチックスの例。「打率、防御率、勝利数といった一般的に重視された情報ではなく、出塁率、長打率、与四球率、被本塁打率といった細かなデータが重要だと言うことに気がついた。さらに実際にアマチュアやマイナーリーグから優秀な選手を発掘。低いコストで高い勝率を実現できた」(塚本氏)。

 塚本氏の示した資料によれば、2000年代にアスレチックスが1勝するのにかけたコストは50万ドル。これに対して最もコストを掛けたチームはクリーブランド・インディアンスの300万ドルだという。「この例はビッグデータを活用したケースではないが、膨大なデータの中から新しい視点で重要なデータを発掘し、それを行動につなげていくかが、いかに重要かを示している」。

 塚本氏が示唆するのは、データを「洞察」し、それを元に「行動」し、さらに得たデータをまた「蓄積」するというサイクルを回すことが、重要だと言うこと。すでに海外では膨大なデータを対象にこのサイクルを回して、経営に役立てている例がいくつもあるという。

 一例として示したのは、デンマークの風力発電企業「Vestas」の例。リアルタイムの気象データ、発電量の予測、地形データなど数ペタバイト以上のデータを、IBMのサーバーやツールで構成したシステムで分析し、最適な風力発電システムの最適な設置場所を割り出すのに役立てているという。「これまで3週間かかっていた分析が15分に短縮でき、競合他社がシミュレーションに取りかかっている間に、契約にこぎ着けてしまう強さを持っている」という。

 ほかにも、IBMがカナダの病院や大学と共同で進めている新政治のモニタリングプロジェクトでは、「1秒間に1000項目にのぼるセンサー情報を集め、酸素飽和度と動脈圧の相関関係から、心肺停止に関するより精緻なアラートを見つけることができた」といった例を紹介した。

 塚本氏は最後に、「非構造化データを、従来の構造化データとつきあわせて傾向を分析したり、恒常的なデータと変動するデータを付き合わせるといった分析には、ストリーミング的に発生するデータ処理が可能なデータベース、大規模なデータへの高速なアクセスを可能にするデータウエアハウス、それらを大規模に分析できるツールなど、三つのエンジンが必要になる」と自社製品群を紹介。そして、「それらを1社で提供できるのはIBMだけ。また分析に特化したスペシャリストを育成し、日々分析のアルゴリズムを開発している」と優位性を強調し、講演をまとめた。