2017年11月9日

はじめまして。データセンター統括グループの朝比奈です。 私は、データセンターサービスの運用と設備管理を主とした部署の中で、 空調効率改善やデータ分析、原価計算等を担当しております。

本日のブログは、先日future facilities社主催の6SigmaDCXプライベートセミナー2017で発表した 「CFD解析を活用したデータセンターの最適化」の内容について書かせていただきます。

 

●データセンターの最適化

データセンターサービスは弊社のメイン事業でありますので、その運用コスト削減は主要な関心事です。これを弊社内では「データセンターの最適化」と呼んでいます。「データセンターの最適化」について、ここでは2つの事柄に注目いたします。
1つ目は電力削減です。電気料金は原価比重が高いため消費電力の削減を行うことは、大きな目標となります。2つ目はデータセンター内の環境管理です。 お客様のIT機器が正常に動くように、空気の温度、湿度、風量を適切な状態に維持することが目標となります。

 

●消費電力の割合

こちらはデータセンター内の消費電力の割合になります。半分以上の割合を占めているのが、お客さまが使用しているIT機器の消費電力です。このIT機器の電力をさらにたくさん使用してもらえるように、残りの部分の空調電力や照明電力などを対象に少しでも削減できるよう日々工夫を重ねています。例えば照明であればLEDに変えました。50%削減することができましたが全体でいうと微々たるものです。 そこで、この残りの半分以上の割合を占めるのが空調電力となりますので、 CFDツールを選択し空調電力削減のための空調効率改善を行いました。

 

●CFDツールの活用方法

データセンター内の熱気流を視覚的に正しく把握し、空調効率改善を行うことが今回の目的になります。CFD(Computational Fluid Dynamics:熱流体解析)ツールの活用方法ですが、まず「データセンター内の熱気流の確認」になります。 サーバラック上下位置の温度差、通路側の熱の周り込み、熱だまり箇所 等、サイト環境を目で見て把握するためです。 次に「改善案の効果の検証」になります。今まで他のデータセンターで実施した既存改善策や新しい改善案のシミュレーションを行うことで効果の検証を実施するためです。 後は、大電力サーバを使用するお客様も多くなってきましたので、受け入れ可能かどうかの事前調査に使っています。

 

●解析モデル

2000年から使用しているデータセンターを解析モデルの対象といたしました。解析モデルの面積は1,500㎡。ラックの台数は約330台になります。空調機は34台そのうち17台が現在稼働しています。ラックのスペックとしては、1ラックあたり2kVA~10kVAと幅広くご利用いただいています。また、こちらのデータセンターは複数のお客様がご利用されています。
2000年とデータセンター自体の思想がちょっと古く、昨今、GPUサーバや高密度サーバをご利用のお客様も多くなってきました。 そういったお客様にもサービス提供できるよう体制を整えております!

 

●空調方式

今回のモデルの空調方式をご説明いたします。 まずデータセンター内は2重床になっています。 そして、空調機から吐き出す冷風は床下を流れます。サーバラック内に配置されたIT機器は電源を入れると熱を発します。熱はIT機器の故障の原因となりますので 床面からグレーチングを介して冷風を吹き上げて、ラック前面からIT機器を冷やします。そして、背面から吐出された排熱は空調機が吸込み空気は循環します。ちなみに、空調機の吸込温度は高い方が冷房能力は上がりやすく、効率を示すCOP(Coefficient Of Performance:成績係数)は高くなります。

●床下のモデル化

床下には回線ケーブル用のケーブルラックや電源ケーブル、空調機用の冷媒管などがはりめぐらされています。 床下は全体の解析モデルの中でも気流に影響する場所ですので現地調査をしっかり行い、特に空調機前面はケーブルのモデル化に気を付けました。

 

●サーバーラックモデル化

サーバラックの高さ、幅、奥行き、天板の開口寸法、開口のあり・なし、ファンの配置位置、ファンのあり・なし、など全く異なっています。 前面扉についても、扉の形状や、開口位置、開口率も違います。IT機器の設置の仕方によってIT機器からの排熱が前面側に逆戻りする可能性もあります。ブランクパネルをこの前面の空いている箇所にはめてあげれば、このような熱の戻りは回避できます。しかし実際はお客様からすればサーバを構築する際邪魔となりますので、すべてのラックに使用することはなかなか難しいです。 サーバラックモデルの作成は現在メーカが取り扱っていなかったり、図面がなかったりと意外と時間がかりました。

弊社では監視システムや空調機運転データなどの計測したデータがありますので、計測データも解析に活用いたしました。

 

●データセンター内の空調環境管理基準

弊社のデータセンター内の空調環境管理基準はAHERAEの規格でありますASHRAE TC9.9 を参考にしています。
このASHRAE TC9.9ではデータセンターにおける空調環境の指標として、18℃~27℃、湿度35%前後~60%を推奨しています。 弊社では、ラック前面給気温度24±2℃、湿度40%から60%までを管理基準として運用しています。

 

●現状のシミュレーション結果

現状のシミュレーション結果から分電盤の隙間から冷風が漏れていました。 排熱が梁にぶつかりラック前面側に落ちる様子や排熱だけでなく冷気も空調機に吸い込まれていました。後は、冷気の回り込みや排熱の回り込みも確認しました。

 

●改善後のシミュレーション結果

こういった現状のシミュレーション結果から今回の採用した改善案は、空調機の稼働配置位置の見直しやグレーチングの開閉パターンの見直し になります。まず空調機の吸込みが冷気を吸っていることがわかりましたので、風の流れを変えるために数か所、空調機の稼働位置を変えました。 そうすることでぼんやりしていたコールドアイルとホットアイルがはっきり区別することができました。次にグレーチングですが開口部分を約30カ所閉じました。それによってグレーチングの吹上風量が上昇しました。ラック端部の排熱の回り込みはグレーチングを開けて冷気の吹上によって回避いたしました。 逆に空調機側のラック端部は開けてしまうと空調機が冷気を吸込んでしまいますのでなるべく閉めるようにいたしました。

 

●改善結果

改善結果です。ラック前面温度は24±2℃の基準をkeepしつつ、稼動していた空調機を3台停止いたしました。 エネルギー効果を示すPUEは1.58から1.55に減少しました。 2000年から使用しているデータセンターにしてはいい数字だと思います! 消費電力は10%削減することができました。

今回のイベントにご来場いただきましたお客様やパートナーの皆様とお名刺交換をしながら会話をさせていただきましたが、BBTowerの実績に数多くの方がご興味をお持ちくださりとても有意義な時間を送らせていただきました。

ブログ内で動画をお見せすることができずとても残念です。ご興味があればお見せできますのでご連絡ください。

今回の空調効率改善は初期段階の改善で今後も他の改善を行っていく予定でいます。私たちデータセンター統括グループはお客様に提供するサービス充実のため地道な作業をコツコツと続けております。

最後まで読んでくださりありがとうございました。

本ブログの情報につきましては、自社の検証に基づいた結果からの情報提供であり、
品質保証を目的としたものではございません。