NVIDIA、「Hopper」採用のハイエンドGPU「H100」などを発表

Stephen Shankland (CNET News) 翻訳校正: 桑井章裕 高森郁哉 湯本牧子 (ガリレオ)2022年03月23日 12時12分

 最高速のグラフィックスを待ち望むゲームファンでもなければ、チップ開発企業NVIDIAの事業についてよく知らないかもしれない。しかし、同社が米国時間3月22日にカンファレンス「NVIDIA GTC 2022」で発表した一連の新モデルを含む同社のプロセッサーは、人工知能(AI)サービス、自律走行車、新たに始まりつつあるメタバースといった多様なデジタル製品の頭脳になる存在だ。

 NVIDIAはGTC 2022で、新たなAIプロセッサー「H100」を発表した。これは現行の「A100」の後継となるモデルであり、A100は人の発話の翻訳、写真に写っているものの認識、自動運転車の移動ルートの設定などを行うAIシステムのトレーニングに利用されている。

 A100は、NVIDIAの好業績に大きく貢献したGPUファミリーの最上位モデルだ。最高経営責任者(CEO)のJensen Huang氏はオンラインのカンファレンスで、同社の高速接続技術「NVLink」を利用すれば、最大256個のH100チップを相互接続させて「実質的に1基の驚異的なGPU」に変えることもできると述べた。

 NVIDIAによると、A100は「Hopper」アーキテクチャーに基づいており、同社の新たなCPU「Grace」と組み合わせることができるという。

Hopper
Hopperアーキテクチャー
提供:NVIDIA

 NVIDIAはまた、「Ampere」アーキテクチャーに基づくグラフィックスチップの新モデル「RTX A5500」を発表した。このチップは、アニメーション、製品デザイン、ビジュアルデータ処理などの3Dタスクにグラフィックスパワーを必要とするプロフェッショナル向けだ。これは同社のメタバース開発プラットフォーム「Omniverse」の事業拡大に沿う動きとなる。同社はOmniverseを通じて、メタバースと呼ばれる3D領域の構築に必要なツールやクラウドコンピューティングサービスを販売している。

 H100は2022年第3四半期に出荷開始予定で、一方のGraceは「来年に出荷する見通し」だとHuang氏は述べた。

 H100は、台湾積体電路製造(TSMC)の4ナノメートルプロセスを採用して、800億ものトランジスターで構成されるデータ処理回路を有する。このGPUには多くの競合製品があり、例えば1000億以上のトランジスターを搭載するIntelの次期プロセッサー「Ponte Vecchio」や、GraphcoreSambaNova SystemsCerebrasなどの新興企業が開発している多くの専用AIアクセラレーターチップが挙げられる。

 NVIDIAのとりわけ有名な競合企業はTeslaだ。同社の「D1」チップを搭載した「Dojo」技術は、自動運転車のトレーニングに使われている。Teslaはまた、こうしたAIモデルを車両本体で実行する独自のプロセッサーを設計している。

 NVIDIAは、自律走行車向けAIチップ「NVIDIA DRIVE Orin」が、電気自動車メーカー2社、米国のLucidと中国の比亜迪(BYD)の車両に採用されると発表した。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]