2011年4月12日火曜日

FacebookデータセンターのPUE(Power Usage Effectiveness)性能

 フェイスブックは、4月中に運用を開始するプラインヴィルのデータセンターが、他の最先端データセンターに比べ、効率が38%高く、経済性も24%高いと発表している。この数値の具体的な根拠は必ずしも明らかではない。しかし、同データセンターのPUE(Power Usage Effectiveness)が1.07というのは驚きの数値だ。これは、データセンターに供給される電力の約93.5%がサーバやイーサネットスイッチに使われることを意味する。いいかえれば、空調やその他のデータセンター維持のために使われる電力は、全体の約6.5%程度にしかすぎない(前述で「効率が38%高い」というのは、PUEが、最近のデータセンターの平均値として同社が指摘する1.5に対し、プラインヴィルは1.07であるところからきているのかもしれない)。
 PUEは、データセンターへの供給電力を、サーバ機などのIT機器の消費電力で割った数値だ。データセンターに供給された電力が、100%IT機器で活用できるような理想的な環境では、PUEは1となる。しかし現実には、電力がIT機器に到達するまでに、さまざまな変換が行われるために、失われる電力もある。また、IT機器を冷却するための空調システムが消費する電力もある。
 PUEを下げる(つまり電力効率を上げる)ための対策としては、まず電力の交流—直流変換の回数を減らすことが考えられる。一般的なデータセンターでは、交流と直流の変換が何度か繰り返され、この過程で発生する電力ロスが、電力の無駄の1要因となっている。
 プラインヴィルのデータセンターでは、三相交流480Vをデータセンター内に引き込み、ここから単相交流277Vを取り出してサーバの電源装置で直流に変換する形をとることで、1度だけの交流直流変換に抑え、変換ロスの発生を防いでいる。これを実現するため、Open Compute Projectでは、交流277Vの入力に対応したサーバ用電源ユニットの仕様を公開している。
 電力効率にさらに響いてくるのは、データセンターにおける冷却の方法だ。
 プラインヴィルのデータセンターでは、まずコールドアイルとホットアイルを明確に分離し、ホットアイルを通路に閉じ込めることを行っている。これを踏まえて、冷却方式に工夫をしている。
 このデータセンターでは、外気を最大限に活用し、さらに水の気化熱を使った仕組みを取り入れている。いわゆるチラーの設備は備えていない。データセンターを設置したプラインヴィルの気候は、気化熱による冷却システムに非常に適していると、フェイスブックの仕様書には述べられている。
その方法とは、まず外気を取り入れ、気化熱メカニズムによる空気冷却エリアに導き、水のミストを通す。その後、過度な湿気を取り除く。次に送風ファンのエリアに導き、ここからデータセンターのコールドアイルに送り込む。この冷気がコールドアイルからサーバラックを通り、ホットアイルに抜けることで、サーバを冷却する。多くのデータセンターでは、冷気を導くためにデータセンターまでダクトを設置するが、この設計では冷気の送り込み、暖気の排出のいずれについても、ダクトはつくらなくてすむようになっている。外気の取り込みやその冷却は、データセンターの屋根裏的なスペース(フェイスブックではこれを「ペントハウス」と表現している)で行うことで、ダクトの必要性を減らしているという。サーバ冷却後にホットアイルに抜けた暖気は隔離されたまま、天井のファンで外に排出される。
 外気の温度が十分低いなら(場合によりデータセンターからの温かい排気を混ぜたうえで)、気化熱メカニズムを作動することなく、そのまま直接データセンターのコールドアイルに送り込む。当然ながら、外気をそのまま使う手法が、電力消費が最も少なく、コストも最小だ。プラインヴィルのデータセンターではこの方法を最大限に活用しているという。
 フェイスブックはこうした取り組みをある程度詳しく説明しているが、残念なのは、1.07というPUE値を実現するにあたって、何がどれだけ貢献しているのかが示されていないことだ。

0 件のコメント:

コメントを投稿