ポイントを箇条書きにしてみた。

サーバー1台30万円として20万台だと、サーバーだけで600億円。これにOS
やネットワーク機器が入るので1000〜2000億円かかっていることになる。
いきなり今の設備を入れたわけじゃないだろうが、桁が大きさを感じる。

あくまでGoogleの設備であって、これを中小企業が入れられるレベルじゃない。
というか車で言えばGoogleの設備は、F1。中小は数百万〜1千万円レベルで
十分。

こういう世界も知っておく事で、ある意味、尺度になると思う。
(実用性は極めて乏しいがw)




GoogleはマルチコアCPU(並列処理)が好き。
・「GFS(Google File System)」「BigTable(DataBase)」「MapReduce」が主軸。
・GFSを実行しているクラスタは200以上。
クラスタの多くは数千台のマシンから構成。
BigTable(2004年に設計)「Googleマップ」「Google Earth」「Blogger
 「Google Print」「Orkut」および検索インデックスを始め、70以上のプロジェ
 クトで利用。
BigTable最大インスタンスは、数千台のマシンに分散した約6PBのデータを管理
MapReduceによるジョブは2004年8月には2万9000件。2007年9月、220万件。
・MapReduce1件のジョブの平均作業時間は634秒から395秒に減少。
MapReduceのタスク出力は193テラバイトから1万4018テラバイトに増加。
MapReduceジョブは1日に約10万件実行。
・ジョブ1件が占有するサーバは約400台、所要時間は約5〜10分。
 (24時間稼動で、MapReduceは約13万9000台のサーバを占有と仮定できる。)
・1800台で構成されるクラスタで1600台故障しても耐えられる(2004年時)



(噂)
・GoogleDC  =36箇所。
・DC内ラック =150ラック/1DC拠点。
・サーバー総数=約20万台超。
・創業者の教え=「不可能なことは適度に無視すること」推奨。
Googleのサーバーは、Intelカスタム基盤。
・ケースはオリジナルで、1ケース40台収納。(通常は20台前後)

マーフィーの法則?)
・各クラスタでは1年目に、1000件の個々のマシン故障。
・1台の電力配分装置が故障すれば、500〜1000台のマシンが約6時間停止。
・20台のラックで異常、40〜80台のマシンがネットワークから切断。
・5台のラック「不安定」になると、ネットワークパケットの半数が紛失。
クラスタの配線を変更すれば、2日間にわたってマシンの5%が影響受ける。
クラスタがオーバーヒートする可能性は約50%
・殆どのサーバが5分以内にダウンし、復旧に1〜2日かかる。
・高信頼性ハード1台より、一般的なハードウェア2台持った方が良い。
・1万台マシンがあれば、毎日トラブルは起こる。




グーグルデータセンターの内側--明らかにされた独自性
http://builder.japan.zdnet.com/news/story/0,3800079086,20374847,00.htm
http://news.cnet.com/8301-10784_3-9955184-7.html