まず純粋に驚いてしまったのだが、ネットワーク上に存在する企業が
非常に凝ったハードウェアを設計しているという事実
でもfacebookくらい巨大なもの(世界中のwebのトラフィックの1割くらい?)になると、
確かにそれを支えるための技術的アプローチは必要でそのためのエンジニアも
集まってくるんだろうなあと思う。
今回の震災でデータセンターの重要性は嫌と言うほど実感したが、
これまでデータセンターと言うとUPSとか自家発電、くらいしか思い浮かばなかった。
しかしこれらの写真を見ていると、サーバ1台、サーバラック1台、そしてラックの集合体、
そしてそれらラックの集合体全体を冷やす入れ物としての建物全体を
空冷する仕組みというのがかなり興味深い代物として見えてくる。
自分の現在の仕事は、この観点から言えばサーバ1台を
いかに静かに効率よく冷やすか、の設計であり、
その点で言えばこのOpen Compute Projectのサーバ設計は
あまりにも単純、悪く言えば安直なものに映る。
おおざっぱに風を送りすぎ、という点で。
もうちょっと効率的にCPUに風を当てたらと思う。
でもFANの性能をちょっと上げればメカ的な部品は最低限ですみそうだし
何よりサーバ本体の自由度は確かに高い。
それに、自分の設計では周囲の環境温度は無限大に一定であり、
サーバ1台はこれによっていつまでも冷えてくれる設定だが、
データセンターは異なる。そりゃそうだ。
規模の違いがとても面白い。
熱を建物全体で回すことで空気中に放出する
というまあ当たり前と言えば当たり前なのだが、
それを非常にクールにデザインしている。
見ていて思い浮かんだんだけど、
川を利用する、っていうのはちょっと面白いと思う。
リターンエアを何で使うんだろう。ちょっとわかんないな。
集塵する手間を省いてるのか、間で暖房にしてるのか。
冷却し続ける事がいかに難しいかは今回の地震で
みんなが実感していると思う。
http://gigazine.net/news/20110408_facebook_opencompute/
に詳しい。