NVIDIA、新AIワークステーション「DGX Station A100」発表

Tiernan Ray (ZDNET.com) 翻訳校正: 矢倉美登里 高橋朋子 (ガリレオ)2020年11月17日 12時31分

 NVIDIAは米国時間11月16日、ペタスケール統合型人工知能(AI)ワークグループサーバー「DGX Station A100」を発表した。同社は「AI時代に向けたワークグループアプライアンス」だとしている。さまざまなパートナーを通じて「今四半期中」に発売される予定だ。

NVIDIA DGX Station A100

 スーパーコンピューティングカンファレンス「SC20」の開幕に合わせて披露された。SC20は例年米国で開催されているが、2020年は新型コロナウイルスのパンデミックの影響でオンラインイベントとなった。

 NVIDIAは、DGX Station A100を「どのような場所にも設置できるAIアプライアンス」だとしている。筐体は、高さ25.1インチ(約64cm)、幅10.1インチ(約25cm)、奥行き20.4インチ(約51cm)で、4基のGPUを搭載する。GPUは、既存の40GBの「A100」GPU、または新たに発表された80GB版のA100となる。重量は91ポンド(約41kg)、パッケージ化されたシステムでは最大127ポンド(約58kg)となっている。最大320GBのGPUメモリーを搭載する。詳細は仕様書で確認できる

 NVIDIAは、大規模なワークロード向けの80GB版A100のスループットについてアピールした。A100の80GB版によって、自然言語処理モデル「GPT-2」のような最大規模のモデルを、さらに多くのパラメーターで、1台のHGX搭載サーバーでトレーニングすることが可能になるとしている。

 NVIDIAの「Ampere」GPUアーキテクチャーをベースにしたA100チップは、2020年5月に発表された。

 今回の発表で、チップメーカーによるAIシステムの構築は明らかなトレンドとなったといえるだろう。約1年前には、スタートアップのCerebras Systemsが、自社で開発した世界最大のコンピュータープロセッサー「WSE」を搭載したAIコンピューターを発表している。

 またNVIDIAは、「DGX A100」のアップデートや、Mellanox Groupによるネットワーキング技術「Infiniband」の新バージョンについても発表した。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]