間違いだらけのネットワーク作り(613)2009/11/07
「ネットワークは DCの中で進化する」

 11月3日、文化の日、マイケル・ジャクソ ンの"This is IT"という映画を見ました。 特にマイケルのファンという訳ではないのですが、嫁さんがファンなので付き合いました。 かなり心を動かされました。 ご 存知のように、マイケルは7月にロンドンで予定されていた8年ぶりの公演を目前にした6月25日(米国時間)に急逝しました。 この映画は公演に向けての リハーサルを撮った映像を編集したものです。 

 オープニングでダンサーのオーディションに来た若者がカメラに向かって独白します。 「人生って、つらいよね。 生きる意味を探していたんだ。 やっと 見つけた。(This is IT)」 マイケルと一緒に舞台で踊ることを夢見て、
世界中から何千人という若者がオーディションに参加したのです。

 リハーサルの映像を見て分かるのはマイケルがただの歌手でもなく、ただのダンサーでもなかったということ。 クリエーターであり、ディレクターです。  アメリカのショービジネスというのはすごいですね。 何百人という人を動員し、CGを駆使した映像をリアルな舞台と重ね合わせ、とんでもない世界に観客を 引き込んでいく。 ほとんと映画作りと同じです。 そこには映画同様、ディレクターがいます。 ケニー・オルテガ。 ショーのディレクターでもあり、この 映画のディレクターでもあります。

 しかし、マイケルはオルテガの演出に従ったりしません。 むしろ、オルテガをリードしてマイケルがショーを演出するのです。 驚くほどきめこまかく、根 気よく、自分自身で1曲1曲の演出をして行きます。 伴奏の音の出し方が気にいらないと、何度でも説明してやり直させます。 その指示の表現が面白い。  例えば、「月の光に浸るように」とか、「ベットから這い出すように」。 これで感じをつかむ演奏者も大したものですね。 場面を切り替える指示をキューと いうらしいですが、マイケルは自分でキューを出したがります。 

 公演では見られない、マイケルのディレクターとしての話し方、スタッフとの接し方を見ると、マイケルはいい奴だったんだなあとすぐ分かります。 あくま でていねいで、おだやかに指示する。 イヤーイン・スピーカーがなじまず、マイケルは自分の声をうまく聞けないとスタッフにクレームを言います。 「怒っ ているんじゃないよ。 愛だよ」と付け足して。 スタッフの一人が言うように「フレンドリーで謙虚」なのです。

 マイケルのダンスは全盛期ほどの力はないものの、とても50歳とは思えないスピードと切れがあり、きれいです。 歌声は伸びとつやがあり、これも全盛期 とほとんど変わりない。 死を目前にした人だとは信じられません。 ファンではない私でも、本当に惜しい人を亡くしたな、と思いました。 

 この映画はマイケルのファンでない人にも、彼をほとんど知らない人にもお勧めです。 実際、映画館には小学生を連れたお父さんや、私たちと同年代の夫 婦、もっと年配の人まで来ていて満員でした。 それにしても、"This is IT"と言えるものをいつも持っていたいですね。


「ネットワークは DCの中で進化する」(記事評「次世代データセンター技術の全貌」日経コミュニケーション11月1日号)
 
 データセンター内部のネットワークの方が広域ネットワーク(WAN)より、はるかに複雑で高度になったな、とは数年前から思っていまし た。  この特集を読むと、DC内ネットワークはさらに進化を遂げ、わくわくするようなことが起こりつつあることが分かりました。

 先ずはサーバから始まって、ネットワーク・レベルへと進む仮想化技術。  サーバの利用効率を高め、運用負荷を軽減するサーバの仮想化はめずらしいこと ではなくなりました。  しかし、ミッションクリティカルを求められるSAP等の基幹系システムでは仮想化はまだごく一部でしか使われてないようです。   VMware上ではSAPの動作が保証されてない、などという本当?と疑いたくなるような話を聞いたこともあります。 本当だとしたら、SAP社という のはユーザ指向の会社ではないですね。 これだけ一般化している仮想化をSAPが保証しない、などというのが本当なら、ユーザの利益に反することです。

 ネットワークの仮想化というのも面白いですね。 物理サーバの中に複数の仮想マシンがあり、それらがやはりサーバ内の仮想スイッチにつながっている。  複数の物理サーバを統合して運用しようとすると、物理サーバごとに仮想スイッチがあるより、一つの仮想スイッチに複数の物理サーバ上の多数の仮想マシンが 接続できた方がシンプルになります。  そんなことをインタフェース仮想化機能を持ったLANアダプタとスイッチで実現できるようになっているそうです。

 二つめはイーサネットの進化です。 この記事で一番面白いと思ったのは、WANを流れるトラフィックよりDC内部で流れるトラフィックの方が多くなって いるという事例です。 世界最大のSNS、フェースブックは2009年3月時点でアクティブユーザが1億7500万人、増加ペースは1日100万人になっ たそうです。 膨大な数のユーザが自身でデータを作りだしユーザ間でやり取りすること、DCからユーザに届けるデータを作るためにDC内部でより多くの データをやり取りすることから、DCと外部との間で送受信されるトラフィックより、DC内部でやり取りされるトラフィックの方が多くなったというのです。   同社が2010年に開設するDCではサーバを収容するために6400本の10GbEが必要になり、それれを束ねるために640本の100GbEが必要 だそうです。 コアネットワークで使われるルータは既にジュニパーとアルカテルが100GbE対応製品を提供しているそうですが、比較的安価なスイッチ製 品で100Gに対応した製品はまだないそうです。

 こういうDC内でのトラフィックの爆発に対応するため、100Gと40Gのイーサの標準化が進められています。 それぞれに伝送距離別に4種類の規格が あるそうです。  サーバをラック内のスイッチ(トップ・オブ・ラック)につなぐ7メートルの規格、ラックをフロアスイッチにつなぐ100メートルの規 格、近隣のDCにつなぐ10キロメートルと40キロメートルの規格。 ネックになりそうなのは100メートルの規格で、これを超えるとDC内部でも高価な 10キロメートル規格を使うしかなくなります。

 速度の向上だけでなく、イーサネットでFC(ファイバ・チャネル)のデータをやりとりするため、ノーロス(フレームの破棄ゼロ)で伝送するための標準や アプリケーションの種類ごとにQoS制御するための標準化も進められています。

 まさに、ネットワークはDC内で進化している、ということですね。 ちなみに、100GというスピードはNGNのバックボーンより速い速度です。   フェースブックのDC内部のネットワークはNGN以上に広帯域で複雑なものなのかも知れません。

*ここに書いてあ ることで質問、ご意見などありましたら下記メールへお知らせください。

   tuguhiro@mti.biglobe.ne.jp

ホームページへ