グーグルのクラウドを支えるテクノロジー > 第158回 サーバー内部のネットワーク処理速度の分析(パート2)

CTC教育サービスはコラム「グーグルのクラウドを支えるテクノロジー > 第158回 サーバー内部のネットワーク処理速度の分析(パート2)」を公開しました。

###

はじめに
 前回に続いて、2022年に公開された論文「Understanding Host Interconnect Congestion」を紹介します。この論文では、サーバー内部のネットワーク処理速度の分析を行っており、ネットワーク機器の性能が向上する中で、サーバー内部における、NIC(ネットワークインターフェースカード)とメモリー間のデータ転送が新たなボトルネックとなる可能性を指摘しています。今回は、この仮説を検証したベンチマーク結果を紹介します。

検証対象として想定されるボトルネック
 前回の記事で説明したように、この論文では、次の2つをNICとメモリー間のデータ転送のボトルネックと想定しています。

IOMMUによる仮想アドレスと物理アドレスの変換にかかる時間
データバスを経由したデータ書き込み処理がCPUと競合することで発生する遅延
 それぞれの検証結果を順に説明していきます。

IOMMUのボトルネックを検証したベンチマーク
 前回の記事で説明したように、IOMMUは、サーバー仮想化環境などで、仮想マシンにデバイスを接続する際に利用します。したがって多数の仮想マシンが稼働していると、それぞれの仮想マシンごとに物理アドレスと仮想アドレスの変換処理が必要になります。そのため、IOMMUのキャッシュ領域(IOTLB)を多数のプロセスが使用する形になり、キャッシュミスが発生して、処理が遅延する可能性が高くなります。

この続きは以下をご覧ください
リンク

本プレスリリースは発表元企業よりご投稿いただいた情報を掲載しております。
お問い合わせにつきましては発表元企業までお願いいたします。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]