logo

「人間に聞こえない音」で音声アシスタントを悪用可能--研究者が実証

Liam Tung (Special to ZDNet.com) 翻訳校正: 編集部2017年09月08日 12時37分
  • このエントリーをはてなブックマークに追加

 人間に聞こえない音を使って、有害になり得る命令を複数の人気音声アシスタントに発する方法が、ある研究チームによって発見された。

 中国の浙江大学研究チームは、「DolphinAttack」と呼ぶ手法が「Siri」「Google Now」「Cortana」「Alexa」を搭載するさまざまなハードウェアに対して有効であることを実証した。

 同研究チームは、攻撃者が人間に聞こえない音声命令を悪用する仕組みを示す概念実証攻撃も行った。それには、Siriに「iPhone」で「FaceTime」通話を発信するよう命じる攻撃や、Google Nowにスマートフォンを機内モードに切り替えるよう指示する攻撃、さらには、「Audi」のカーナビゲーションシステムを操作する攻撃まで含まれる。

 今回発見された、さまざまなハードウェアに有効な攻撃手法は極めて低コストで実行可能で、必要なのは、わずか3ドルで入手可能な増幅器と超音波振動子、電池だけだ。さらに厄介かもしれないのは、この攻撃手法によって、ターゲット自身のスマートフォンを使って「Google Home」や「Amazon Echo」がリモート攻撃されるおそれもあることだ。


提供:Chris Monroe/CNET

 「攻撃者は、音声命令が埋め込まれた音声クリップや動画クリップをYouTubeなどのウェブサイトにアップロードする。その音声や動画が被害者の端末上で再生されると、Google HomeやAlexa端末、携帯電話など、被害者の端末の周囲にある音声制御可能なシステムが勝手に起動されるおそれがある」(浙江大学の研究チーム)

 この攻撃は、人間の音声命令を20kHz以上の超音波周波数に変換することによって機能する。20kHzは人間に聞き取れる最も高い周波数だ。攻撃者はその後、人間に聞こえない命令をターゲットの音声制御システムに送信する。

DolphinAttackを実証する動画(出典:Zheijiang University/YouTube)

 攻撃者が人間に聞こえない命令を使って実行できる悪質な行為には、ほかにも、端末に悪意あるウェブサイトを開かせる、ビデオカメラを起動して誰かを監視する、連絡先へのスパム送信をデバイスに命令する、といったことが含まれる。

 DolphinAttackは特定の音声制御システムの脆弱性ではなく、それぞれのシステムのオーディオハードウェアを悪用する。この攻撃は、iPhone、「iPad」、「MacBook」、「Apple Watch」、Amazon Echo、サムスンの「Galaxy S6 edge」、さらにCortanaを搭載するLenovoの「ThinkPad」に対して有効だった。実験対象の中で攻撃を防ぐことができた唯一のデバイスは、「iPhone 6 Plus」だった。

 実験で使用した機器に対する制約は、攻撃者がターゲットの音声制御ハードウェアの2m以内に近づく必要があることだ。しかし、より高性能の機器を使用すれば、その距離をもっと伸ばせるかもしれない、と研究者らは主張する。

 実験では、「機内モードをオンにして」といった一般的なコマンドに比べ、システムに特定の電話番号に発信させたり特定のウェブサイトを開かせたりする命令の方が、より難しいことも明らかになった。

 彼らは、各システムに固有の音声起動コマンド(例えば、「Hey Siri」)を認識して起動する攻撃手法も発見した。

 この攻撃を防ぐには、マイクで20kHz以上の周波数の音を感知できないようにすべきだと研究チームは提案しており、「iPhone 6 Plus」のマイクはこれにうまく対処していると述べている。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

-PR-企画特集