ダイレクトチップ液冷技術

現在、ほぼすべてのインターネット トラフィックはデータ センターを介して送信されます。 ChatGPT などの生成 AI アプリケーションの人気に加えて、コンピューティング能力に対する前例のない需要があります。世界のデータセンターは可能な限り高性能の GPU と CPU を導入しています。これに応じて、電力とエネルギーの需要も高まります。
AI とハイパフォーマンス コンピューティングの発展に伴い、データセンター内のチップ、サーバー、ラックの構成はますます高密度になってきています。この高密度化には、システムのパフォーマンスと信頼性を維持するために機器が安全な温度範囲内で動作できるようにするために、より強力な冷却システムが必要になります。

AI thermal cooling SINK

データセンターの冷却コストは物理インフラストラクチャコストの中で最も急速に増加しており、年間平均成長率は 16% であることがわかっています。データセンターの冷却コストの増加率は、高パフォーマンスの運用を維持しながら、既存の能力を上回っています。 MIT リンカーン研究所のデータによると、2030 年までにデータセンターは世界の電力供給量の最大 21% を消費することになります。 AI のエネルギー消費問題を解決するために、業界はエネルギー利用効率を向上させるための専用の AI カスタム チップを開発するだけでなく、より効率的な冷却技術を採用してデータセンターが最大限の持続可能性を達成できるように支援します。

data center Energy consumption

最近、ZutaCore という会社が、NVIDIA GPU 用の業界初の誘電体ダイレクト チップ液冷プレートを展示しました。これは、AI およびハイパフォーマンス コンピューティング ワークロード向けに特別に設計された、無水、チップに直接接続できる二相液体冷却システムです。同社は、Intel、Dell、Vitus などの多数のサプライヤーと提携しており、複数のサーバー メーカーも ZutaCore と協力して、Nvidia GPU プラットフォームの認証とテストを完了しています。

Direct chip liquid cooling

ZutaCore の「HyperCool」冷却ソリューションは、冷却媒体として液体に依存せず、特殊な誘電性液体を使用します。この冷却方式は、冷却が必要なチップに冷却液を直接接触させるため、従来の空冷や間接液冷に比べて、より効果的に熱を吸収・除去できます。 HyperCool テクノロジーは、データセンターから発生する熱を回収して再利用することもでき、100% の熱再利用を実現します。

HyperCool thermal solution

さらに、各 Nvidia H100 GPU の現在の消費電力は 700 W にも達しており、熱、エネルギー消費、スペースの制御にすでにプレッシャーを感じているデータセンターにとっては大きな課題となっています。 HyperCool は冷却エネルギー消費を 80% 削減し、1500W を超える GPU をサポートし、ラック密度を 300% 増加できることがわかります。全体として、データセンターの冷却は、ハードウェアの効率を確保し、機器の寿命を延ばす上で重要な要素となります。データセンターの規模とコンピューティング需要の増大に伴い、効率的な冷却ソリューションの重要性がますます高まっています。

Nvidia H100 GPU cooler

最適化された冷却を継続的に提供することで、データセンターのハードウェアは高いパフォーマンス レベルで動作し続けることができ、温度問題によるパフォーマンスの変動を回避し、従来の施設をはるかに超えるコンピューティング パワーを実現します。これは、人工知能やビッグデータ分析などのハイパフォーマンス コンピューティングに依存するアプリケーションにとって特に重要です。

 

あなたはおそらくそれも好きでしょう

お問い合わせを送る