2027 年までに、グリーン データセンターの市場規模は約 1,470 億ドル増加すると予想されています

人気の ChatGPT などの生成人工知能の急速な発展に伴い、データセンターにおけるコンピューティング能力の需要が急増しています。人工知能アプリケーションは大量のデータを読み取り、従来のソフトウェアよりも多くの電力を消費します。生成 AI モデルのトレーニングに使用される GPU は消費電力が高く、追加の冷却エネルギーも必要とします。

推定によると、マクロ データの観点から、人工知能は 2030 年までに世界の電力需要の 3% ~ 4% を占める可能性があります。人工知能サーバーの急増により、データ センターの電力消費量は大幅に増加しています。マッキンゼーは、2030 年までにデータセンターの電力消費量が 2 倍以上になると予測しています。

artificial intelligence server cooling

電力消費量とコストの増加が市場の成長を促進する重要な要因です。データセンターのエネルギー消費量は非常に多く、自動運転車、ストリーミングメディア、5Gなどのより強力なアプリケーションへの需要が高まるにつれ、データセンターのエネルギー消費量は指数関数的に増加する可能性があり、供給するには大量の電力が必要になります。異なる装備。

data canter liquid cooling

データセンターにおける膨大なエネルギー需要の課題に対処するには、省エネハードウェア、革新的な冷却ソリューション、グリーンエネルギー、より広範な持続可能な開発戦略など、さまざまな対策を講じる必要があります。

省エネチップの使用は、データセンターのエネルギー効率を向上させるための基礎です。省エネチップは高度なアーキテクチャと電源管理機能を備えており、データセンターのハードウェアの電力消費を最小限に抑える上で重要な役割を果たします。これらのチップはハードウェア リソースをより効果的に割り当てて利用できるため、ワットあたりのパフォーマンスが向上します。たとえば、前世代の Intel Xeon プロセッサと比較して、第 4 世代 Xeon は、内蔵アクセラレータを使用した場合、ターゲット ワークロードのワットあたりの平均パフォーマンス効率を 2.9 倍向上させました。 2022 年には、Nvidia の H100 GPU AI チップのエネルギー効率は、前世代製品 A100 のほぼ 2 倍になります。

Nvidia H100 GPU cooler

さらに、データセンターのエネルギー消費を削減するためのもう 1 つの効果的な対策は、より効率的な冷却ソリューションを大規模に導入して、冷却エネルギー消費の割合を減らすことであり、重要な指標は「電力使用効率」(PUE) です。過去 10 年間で、コンピューティング出力が 6- 倍、ストレージ容量が 25- 倍に増加したにもかかわらず、世界のデータセンターのエネルギー使用量は 2006 年から 2018 年にかけて 6% しか増加しませんでした。この大幅な効率化により、改善は PUE の減少によるものと考えられます。

GPU liquid cooling

推定によると、グリーン データセンター市場は 2022 年から 2027 年の間に 1,469 億 5,000 万ドル増加し、年平均成長率は 24.63% になると予想されています。大規模な液体冷却 (特に直接液体冷却 DLC) の導入が増加しているため、液体冷却時代に入るデータセンターの PUE は 1.3 を下回ります。液体冷却技術は、データセンターの全体的な冷却効率を向上させるだけでなく、高出力密度チップの冷却ニーズを満たし、高電力消費の空調システムへの依存を減らし、持続可能な環境開発を促進します。

あなたはおそらくそれも好きでしょう

お問い合わせを送る