NVIDIA、HBM3eメモリー搭載の次世代「GH200 Grace Hopper」を発表

Tiernan Ray (Special to ZDNET.com) 翻訳校正: 湯本牧子 高森郁哉 (ガリレオ)2023年08月09日 11時16分

 NVIDIAは、同社が命名した「スーパーチップ」の強化版として、HBM3eメモリーを搭載する次世代「NVIDIA GH200 Grace Hopper Superchip」を発表した。

Jensen Huang氏
NVIDIAのCEO、Jensen Huang氏
提供:NVIDIA

 これを搭載するシステムは2024年第2四半期に提供が始まる見込みだ。最高経営責任者(CEO)Jensen Huang氏が米国時間8月8日、ロサンゼルスで開催されているコンピューターグラフィックスの年次カンファレンス「SIGGRAPH」の基調講演で語った。次世代GH200 Grace Hopperは、CPUとGPUを組み込み、より高速なメモリーを搭載することで、回路を行き来するデータの大容量化を実現している。

 これは、2023年に入って発表されたGrace Hopperの次期バージョンだ。初期バージョンは、すでにDellなどのコンピューターに搭載されて出荷されている。

 初代のGrace Hopperでは、「Hopper」GPUにデータを転送する広帯域幅メモリー(HBM)の容量は96GBだが、新GH200では、HBM規格の次期バージョンであるHBM3eの容量が141GBになる。HBM3eにより、GPUに転送されるデータレートは初代Grace Hopperの毎秒4TBから5TBに高速化する。

 次世代GH200は初代と同様、ArmベースのGrace CPUと、Hopper GPUを搭載している。これらは回路基板上で、高速かつキャッシュコヒーレントなメモリーインターフェース「NVLink」によって接続されている。このNVLinkを通じて、Hopper GPUはCPUのDRAMメモリーにアクセスする。

 Huang氏の説明によると、GH200をデュアル構成のサーバー内で第2のGH200に接続することで、HBM3eメモリーの帯域幅は合計10TBになるという。

GH200
提供:Nvidia

 NVIDIAは過去にも、GPUパーツのメモリー速度をアップグレードしてきた。例えば、「Ampere」アーキテクチャをベースにした前世代のGPU「A100」は、HBM2からHBM2eに移行した。

 以前のGPUメモリー標準だったGDDRからHBMへの移行は2015年に始まったが、それをけん引したのは、ビデオゲームグラフィックス用の4Kディスプレイのメモリー需要増だった。HBMは積層型のメモリー構成で、個々のメモリーダイが互いに垂直に積み重ねられ、各チップを貫通する「シリコン貫通ビア」を介して、各チップ間の表面にはんだ付けされた「マイクロバンプ」に接続される。

 AIプログラム、特に「ChatGPT」のような生成系AIは、メモリーを大量に消費する。というのも、膨大な数のニューラルの「重み」、すなわちパラメーターを保存する必要があるからだ。ニューラルネットワークにおいては、主要な機能単位である行列がパラメーターになる。これらの重みは、大規模言語モデルのような生成系AIプログラムの新しいバージョンが出るたびに増加し、1兆個のパラメーターに向かう傾向にある。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]