このページで: [隠れる]
Google Compute Engineサービスは、A2仮想マシンをNVIDIA Ampere A100 Gpusにアップグレードしました。これは、パブリッククラウドにこの新しいテクノロジーが搭載されるのは初めてのことです。. この移動により、クラウドサービスプラットフォーム上のすべてのホストされたインスタンスのパフォーマンスが大幅に向上します.
NVIDIA Ampere A100 TensorコアGPUは、GoogleコンピューティングエンジンのVMに電力を供給します
Googleコンピューティングエンジン, 会社の最高のサービスの1つが受けました 重要な更新 — の追加 NVIDIA AmpereA100TensorコアGPU. これらの新しく実装されたカードは、 アクセラレータ-最適化された仮想マシン GoogleComputerEngineに統合されています. この理由は、ますます多くのサービスが依存しているという事実です 機械学習とHPCアプリケーション プラットフォームの顧客によって展開されます.
これらのNVIDIAGPUは、仮想マシンサーバーに統合されます — まで 16 ユニットは単一の仮想マシンインスタンスにデプロイできます. アクセラレータに最適化されたVM (A2) 家族は このハードウェアを統合した最初のパブリッククラウド.
また読む KinstaがGoogleの次世代VMに移行
新しいGPUを受信する仮想マシンは、 20 パフォーマンスが2倍速くなります 前世代のハードウェアと比較した場合. 複雑なタスクが実行されると、仮想マシンは NVIDIAHGXA100システム これにより、各グラフィックカード間に必要な高速リンクが提供されます. 構成はプロバイダーのために行われます 16 仮想マシンあたりのGPU — この合計 640 GPUメモリのGB, 効果的なパフォーマンスは最大です 10 FP16のペタフロップス.
がある 使用できるいくつかの構成, 使用する正確なタイプは、アプリケーションのパフォーマンス要件によって異なります:
- a2-highgpu-1g — 単一のGPU 12 vCPU, 85 GB RAM, 24 Gbpsの正味帯域幅
- a2-highgpu-2g — 2つのGPUと 24 vCPU, 170 GB RAM, 32 Gbpsの正味帯域幅
- a2-highgpu-4g — 4つのGPUと 48 vCPU, 340 GB RAM, 50 Gbpsの正味帯域幅
- a2-highgpu-8g — 8つのGPUと 96 vCPU, 680 GB RAM, 100 Gbpsの正味帯域幅
- a2-megagpu-16g — 16個のGPUと 96 vCPU, 1,360 GB RAM, 100 Gbpsの正味帯域幅
現時点では、お客様はに登録して新しいグラフィックカードをテストすることを選択できます。 プライベートアルファプログラム, ハードウェアは、今年後半にすべてのユーザーが利用できるようになります.
a2-highgpu-8g は英国で入手できますか?
ありがとう
やあ, 広陽,
3月からのGoogleからの公式情報, 2021 それはオランダで入手可能でした, シンガポールとアイオワ (米国では), 一方、他の場所では年内にハードウェアがすぐに入手できるはずです. Google Cloud の公式ウェブサイトからもう 1 つ確認できるのは、6 月からロンドンで A2 インスタンス コアが実行されているということです。 25, 2021. そう, はい, 英国ではすでに A2 VM が実行されており、すべてが含まれている必要があります。 5 GPU, a2-highgpu-8g を含む. 詳細については、Google Cloud サポートにお問い合わせください.