###
はじめに
前回に続いて、2022年に公開された論文「Understanding Host Interconnect Congestion」を紹介します。この論文では、サーバー内部のネットワーク処理速度の分析を行っており、ネットワーク機器の性能が向上する中で、サーバー内部における、NIC(ネットワークインターフェースカード)とメモリー間のデータ転送が新たなボトルネックとなる可能性を指摘しています。今回は、この仮説を検証したベンチマーク結果を紹介します。
検証対象として想定されるボトルネック
前回の記事で説明したように、この論文では、次の2つをNICとメモリー間のデータ転送のボトルネックと想定しています。
IOMMUによる仮想アドレスと物理アドレスの変換にかかる時間
データバスを経由したデータ書き込み処理がCPUと競合することで発生する遅延
それぞれの検証結果を順に説明していきます。
IOMMUのボトルネックを検証したベンチマーク
前回の記事で説明したように、IOMMUは、サーバー仮想化環境などで、仮想マシンにデバイスを接続する際に利用します。したがって多数の仮想マシンが稼働していると、それぞれの仮想マシンごとに物理アドレスと仮想アドレスの変換処理が必要になります。そのため、IOMMUのキャッシュ領域(IOTLB)を多数のプロセスが使用する形になり、キャッシュミスが発生して、処理が遅延する可能性が高くなります。
この続きは以下をご覧ください
リンク
御社のプレスリリース・イベント情報を登録するには、ZDNet Japan企業情報センターサービスへのお申し込みをいただく必要がございます。詳しくは以下のページをご覧ください。