AI が熱革命を推進し、3D-VC がハイライトの瞬間を解き放ちます。
ChatGPT によって引き起こされた生成 AI ブームと、自動運転やビッグデータ モデル アプリケーションに必要な高いコンピューティング能力によって、AI サーバー市場は急速な成長を維持しています。 IDC のデータによると、世界の AI サーバー市場は 2021 年に 156 億米ドルに達し、2025 年には世界の AI サーバー市場は 318 億米ドルに達すると予想されています。
新世代のAIサーバーの能力は段階的に向上しており、空冷と放熱の限界に近づいています。 AI サーバーのリーダーである NVIDIA は、最新プラットフォームに液体冷却ソリューションを積極的に導入していることに加え、一部の AI GPU チップに 3D-VC (3D ベーパー チャンバー) 冷却を構成しています。
各 NVIDIA AI サーバーには通常 4 ~ 8 個の GPU が搭載されており、各チップの電力は 300W ~ 700W にも達するため、非常に高い熱ソリューションが必要となるため、空冷ソリューションは従来のフラット VC から 3D-VC への移行を促しています。 。

3D-VC は従来のベーパー チャンバーとは異なります。従来の設計では、ベーパー チャンバーはチップの上部に配置され、二次アセンブリ内の複数のヒート パイプに熱を伝達し、その後ヒート パイプがフィン グループに熱を伝達します。ベイパーチャンバーとヒートパイプが別個に設計されているため、熱伝達距離が長くなり、熱抵抗が増加します。
3D-VC は、ヒート パイプ設計をベーパー チャンバー本体まで拡張します。ベーパーチャンバーの真空チャンバーとヒートパイプは 1 つのキャビティ内に接続されています。ヒートパイプの作動液戻り毛細管構造もベーパーチャンバーの接続部と一体化されているため、熱は均一に分散されます。プレートからの熱エネルギーはより迅速にヒートパイプに伝達され、次にフィンパックに伝達されます。
従来のベイパーチャンバーと比較して、3D-VC はより多くの熱を放散できます。このようにして、サーバー サイズの過度の増加を引き起こすことなく、より小さなモジュール サイズ設計で 300 W を超える電力を処理できます。
さらに、3D-VC のもう 1 つの重要な用途はハイエンド ゲーム グラフィックス カードであり、その放熱機能は NVIDIA RTX40 シリーズまたは AMD RX70 シリーズを最大 400W までカバーできます。
MSI などの主流のグラフィックス カード ブランドが 3D-VC 冷却ソリューションをますます好むようになっているため、3D-VC は AI サーバーとハイエンド グラフィックス カードという 2 つの主要なアプリケーションを歓迎しています。
MSI は、今年の Computex で DynaVC ベーパー チャンバー テクノロジーをデモンストレーションしました。このテクノロジーは、3D ベーパー チャンバーを利用し、ヒート パイプを個別に統合するのではなく、折り畳まれたヒート パイプと組み合わせます。この技術は、熱伝達距離を短縮し、3D-VC キャビティ内の流体への熱のより直接的な伝達を促進すると言われています。







