AI サーバーの冷却テクノロジーに対する需要の高まりにどう対処するか

現在、放熱モジュールは主にサーマルパイプを含むアクティブおよびパッシブハイブリッド放熱技術で構成されています。ヒートパイプ放熱モジュールは、空気ディフューザー、ヒートシンク、サーマルパイプなどのコンポーネントと設計および組み合わせて、内部電子部品に均一な温度の放熱動作環境を提供し、電子機器の動作をより安定させます。多機能かつ軽量の端末電子製品の傾向に伴い、サーマルモジュール工場は、主にベーパーチャンバーとヒートパイプに基づいた熱ソリューションの設計に目を向けています。

Thermal Heatink

ヒートシンクモジュールは「空冷ヒートシンク」と「水冷ヒートシンク」の2種類に分かれます。このうち空冷ソリューションは、ヒート インターフェイス マテリアル、ベイパー チャンバー (VC)、ヒート パイプなどの中間材料を介して空気を媒体として使用し、ヒートシンクまたはファンと空気の間の対流によって放散されます。 「液体冷却は主に液体との対流によって実現され、それによってチップが冷却されます。しかし、チップの発熱量と体積が増加するにつれて、チップの熱設計消費電力 (TDP) が増加し、空冷の使用が増加します。」徐々に放熱が不十分になっていきます。

vapor chamber and heatpipe

モノのインターネット、エッジ コンピューティング、および 5G アプリケーションの発展により、データ AI は世界のコンピューティング能力を急速な成長期に押し上げました。調査会社TrendForceによると、GPGPU(汎用GPU)を搭載したAIサーバーの出荷台数は、2022年には約1%にとどまったが、2023年にはChatGPTアプリケーションが牽引し、AIサーバーの出荷台数が増加すると予想されている。 38.4% 増加し、2022 年から 2026 年までの AI サーバー出荷全体の年間複合成長率は 29% に達すると予想されます。
次世代のヒートシンク モジュールの設計には、主に 2 つの方向性があります。 1 つは既存の放熱モジュールを 3D ベーパー チャンバー (3DVC) でアップグレードすることであり、もう 1 つは液体を対流媒体として使用して熱効率を向上させる液体冷却システムを導入することです。したがって、液冷テストケースの数は 2023 年に大幅に増加すると予想されますが、3DVC は過渡的なソリューションにすぎません。 2024 年から 2025 年にかけて、ガス冷却と液体冷却の並行時代に突入すると推定されています。

3D vapor Chamber Heatsink

ChatGPT の台頭により、ジェネレーティブ AI によってサーバーの出荷台数が増加し、ヒートシンク モジュールの仕様をアップグレードする要件が高まり、サーバーの放熱と安定性に関する厳しい要件を満たす液体冷却ソリューションが推進されました。現在、業界では高密度加熱サーバーや部品の放熱問題を解決するために液体冷却における単相浸漬冷却技術が主に使用されていますが、ChatGPT 以降のサーバーには熱放散が必要なため、依然として 600W の上限があります。 700W以上の放熱能力に対応します。

AI Server

データセンターの総エネルギー消費量の約33%を冷却システムが占めていることを踏まえ、冷却システムや情報機器の改善、再生可能エネルギーの活用など、総電力消費量の削減と電力使用効率の低減を図ります。水は空気の4倍の熱容量を持っています。そのため、液冷冷却システムを導入する場合、液冷プレートの設置スペースはわずか1Uで済みます。 NVIDIA のテストによると、同じ計算能力を達成するには、液体冷却に必要なキャビネットの数を 66% 削減できます。 エネルギー消費量を 28% 削減でき、PUE を 1.6 から 1.15 に削減でき、計算効率を向上できます。 。

data center immersion liquid cooling

高速コンピューティングは TDP の継続的な向上につながり、AI サーバーには放熱に対するより高い要件が求められます。従来のヒートパイプ冷却は限界に近づいており、液冷熱ソリューションの導入は避けられません。

あなたはおそらくそれも好きでしょう

お問い合わせを送る