米アマゾン ウェブ サービスの「Amazon Web Services(AWS)」は、システム基盤を構築するための、IaaS(インフラストラクチャー・アズ・ア・サービス)とPaaS(プラットフォーム・アズ・ア・サービス)を中心するクラウドサービスだ。本講座では、AWSでのロードバランサーによる「負荷分散」と、性能および容量を増強する「スケーリング」について解説する。

連載
AWS基盤設計の基本[負荷分散とスケーリング]
目次
-
第1回 スケーリング
仮想マシン(EC2インスタンス)1台構成のコーポレートサイトのシステムで、オブジェクトストレージのAmazon S3にテキストや画像などの静的コンテンツを配置し、S3からユーザーに直接配信するアーキテクチャーを構築すると、S3は自動的にスケーリング(性能増強)します。静的コンテンツの配信をS3にオ…
-
第2回 ELBによる負荷分散
第1回ではコーポレートサイトのシステムの可用性をさらに向上させる準備として、EC2インスタンス1台にWebサーバー、アプリケーションサーバー(Web・APサーバー)、DBサーバーを稼働させる構成から、DBサーバーを切り出す作業を行いました。これにより、Web・APサーバーはいわゆる「ステートレス」…
-
第3回 オートスケーリング
第2回では、Web・APサーバーの可用性と拡張性を高めるために、Web・APサーバーを単一サーバーから複数台構成にし、Elastic Load Balancing(ELB)を利用して、各サーバーにトラフィックを振り分ける構成に変更しました。
-
第4回 データストアーのスケーリング
第3回では「Auto Scaling」という機能を利用して、Webサーバー、アプリケーションサーバー(Web・APサーバー)として稼働させるEC2インスタンスを、負荷の変化に応じて自動的に追加・削除するスケーリングの方法を解説しました。