PR

山中 博雄/KDDI データ商品企画部

 KDDI Wide Area Virtual Switch(KDDI WVS)の基本コンセプトは,「データ・セントリックな環境に合うネットワーク」である。分散した情報システムの管理負荷軽減,コンプライアンスやガバナンス強化,セキュリティ強化,コスト削減,大規模化が進むファシリティ(電源や空調)の確保など様々な観点から,企業ユーザーの間ではデータ・センター(DC)を活用する例が急増している。KDDI WVSは,こうした企業ユーザーのネットワークに対する様々なニーズに応えるために,ゼロから作り上げたWANサービスである。

 WVSのバックボーン・ネットワークは,広域イーサネットの「KDDI Powered Ethernet」,「KDDI Ether-VPN」,IP-VPNの「KDDI IP-VPN」などとは基本的に独立している。新規に作り上げた理由は簡単だ。WVSのコンセプトに基づくサービスを実現するには,Powered Ethernetをはじめとする既存サービスのインフラには搭載されていない機能が求められるためである。詳しくは後述するが,例えばデータ・セントリックなネットワーク環境での要件を満たすには,網のエッジ・スイッチに,複雑かつ処理負荷の高い帯域制御の仕組みが必要になる。

 もちろん,Powered Ethernetのスイッチをリプレースするなど,機能強化していく手はある。ただ,切り替え時にはどうしても,利用中のユーザーのトラフィックに影響を及ぼすことになる。このため,新規にネットワークを構築する方法を選んだ。

 データ・セントリックの環境でネットワークに求められる要件は3点挙げられる。(1)データ・センターとの安定した広帯域接続,(2)多様な冗長化手段による信頼性の向上,(3)管理負担の軽減──である。

 WVSには,こうした要件に応えるための4種類の機能がある。データ・センターとの間で増大するデータ量に対して,コストを抑えながら利用帯域を拡張可能な「トラフィックフリー機能」,低コストで高い冗長性を確保できる「プラグイン機能」,複雑なネットワーク構成をシンプル化し柔軟なネットワーク構築を可能とする「L2/L3マルチレイヤー機能」,ユーザー側のルーター機能をネットワークに取り込む「宅内ルータレス機能」がそうだ。

DC向けは契約帯域の余剰分も動的に使える

 KDDI WVSの最大の特徴とも言える「トラフィックフリー機能」は,データ・センターとの通信を契約回線のインタフェース速度まで帯域を拡張できるものである(図1)。パケットのあて先/送信元IPアドレスに基づいて,「データ・センター向け通信」と「拠点間通信」をネットワーク内で論理的に分割。それぞれに異なる帯域制御ルールを適用する。

図1●トラフィックフリー機能は最上位のメニュー
図1●トラフィックフリー機能は最上位のメニュー
1M(10M)は契約帯域が1M ビット/秒。

 帯域制御を実行するのは,送信側ユーザーのアクセス回線からWVSのバックボーンに入るエッジ装置の部分である。ここで,パケットのあて先アドレスが,ユーザーの他の拠点のものであれば,契約帯域を上限として帯域制御する(図2)。アプリケーションの種類には全く依存しない。拠点間通信用の契約帯域は,インタフェースが100M ビット/秒の場合なら10M~90M ビット/秒の範囲で選択可能だ。

図2●トラフィックフリー機能はあて先アドレスに基づいたエッジ装置による制御で実現
図2●トラフィックフリー機能はあて先アドレスに基づいたエッジ装置による制御で実現
[画像のクリックで拡大表示]

 一方,あて先アドレスが,あらかじめ登録されたデータ・センター内のシステムのアドレスであれば,インタフェース帯域から契約帯域を除いた帯域を使うように制御する。IPアドレスに基づいて制御するため,帯域を使い分けるといっても,ユーザー側でのルーターの設定変更などは必要ない。

 特徴的なのは,データ・センター向けのトラフィックに割り当てる帯域(拡張領域)もベストエフォートではなく,ギャランティ型であることだ。例えば拠点間通信用の契約帯域が10M ビット/秒,インタフェースが100M ビット/秒だとしよう。この場合,データ・センター向けは,最低90M ビット/秒の帯域を確保する。アクセス網とバックボーンの間では他のユーザーと帯域を共有しないため,上り/下り方向とも契約回線ごとに物理インタフェースの最大帯域(ここでは合計100M ビット/秒)を確保できる。KDDI Powered Ethernetなどと同様に確保帯域に基づく帯域設計が可能になるわけだ。

 さらに言うと,拠点間のトラフィックが流れていない場合には,データ・センターとの通信に最大で100M ビット/秒まで利用できる。そのために,拠点間のトラフィック状況に応じて,データ・センター向けトラフィックの帯域制御を実行するキューを動的に管理する。この動的管理により,拡張領域の帯域幅を増減させる。

確保した帯域内でも4段階の優先制御

 加えて,論理的に分割された「トラフィックフリー対象通信:データ・センター向け通信」と「トラフィックフリー対象外通信:拠点間通信」のそれぞれの中で,細かな優先制御を実行できる。例えばデータ・センター向けでも基幹業務システムに接続する場合と,情報系システムに接続する場合では,遅延による影響や必要とする帯域は異なる。データ・セントリック環境では,多様なアプリケーションが混在することが考えられるため,こうした優先制御は欠かせない。

 もう少し細かく説明すると,拠点間の通信では,契約帯域の範囲内で4段階の優先度を設定できる(図3)。優先制御のアルゴリズムはSPQで,ユーザー側のスイッチなどで設定したToS/CoSの値に基づいて制御する。データ・センター向けは,契約帯域の余剰帯域を含めた帯域内で,同じくSPQを使って4段階の優先制御が可能になっている。

図3●トラフィックフリー機能で確保した帯域の中でも細かな優先制御が可能<br>優先制御はユーザー側機器で設定されたToS/CoSの値に基づいて動作する。
図3●トラフィックフリー機能で確保した帯域の中でも細かな優先制御が可能
優先制御はユーザー側機器で設定されたToS/CoSの値に基づいて動作する。
[画像のクリックで拡大表示]

 このように,WVSでの運用品質・帯域確保の品質は,従来の広域イーサネットなどと全く同等で,そのうえデータ・センター向けに使う帯域を動的に拡張できる。それでも料金水準はPowered Ethernetなどとあまり変わらない。こうしたことから,「トラフィックフリー機能」を使ったWVSを,従来型の帯域確保型アクセスの上位サービスとして位置付けている。

 トラフィックフリー機能は,ユーザーが国内15カ所のTELEHOUSE(KDDIデータ・センター),あるいは約100カ所の提携データ・センターを利用すれば,各ユーザー拠点とそれぞれのデータ・センターとの間の通信に適用できる。利用に際して特別な手続きは必要ない。それぞれのデータ・センター側にWVSの回線を引き込むだけで良い。

 なお,データ・センター側の回線は,通常アクセスと同様のギャランティ型となる。データ・センター側で,各拠点との間で発生する通信の量やトラフィック・パターンを把握し,それぞれの帯域を確保できるよう余裕を持たせた速度品目を選んでおけば,拠点側のトラフィックフリー機能を有効に利用できる。

 将来的にデータ・センター利用が増えた場合でも,データ・センター側の回線を増強すれば済む。拠点側ではインタフェース帯域を超えない限り,見直す必要はない。

山中 博雄(やまなか・ひろお)
KDDI ソリューション商品企画本部
データ商品企画部 商品企画2グループリーダー
主に企業向けデータ通信サービスであるKDDI Powered Ethernet,KDDI Ether-VPN,KDDI IP-VPNの商品企画に従事し,KDDI Wide Area Virtual Switchの企画・開発を担当。