声や音楽に隠された命令で音声アシスタントが操作される危険性

Ry Crist (CNET News) 翻訳校正: 編集部2018年05月11日 11時56分

 音声作動式デバイスがますます多くの家庭に普及している。それを受けて、研究者らはありとあらゆる音声作動式製品の潜在的な脆弱性について、懸念を抱くようになっている。

 The New York Times(NYT)によると、それらの脆弱性には、人間には聞こえない周波数で録音され、人間には無害に聞こえる音声に隠すことが可能な命令が含まれることを、一部の研究者が主張しているという。研究者らによると、そうした秘密の命令の技術が悪人の手に渡れば、それを利用して、メッセージの送信や買い物、送金、これらの音声アシスタントが現時点で実行可能な事実上あらゆることを、ユーザーに全く気づかれずに実行されるおそれがあるという。

 その全ては、われわれが2017年に目にしたことから一歩前に進んでいる。当時、中国の研究者らは、人間に聞こえない超音波を送信して「Siri」「Alexa」「Cortana」「Google Now」など人気の音声アシスタントを起動できることを示した。「DolphinAttack」と呼ばれるその方法を実行するには、攻撃者がユーザーのスマートフォンやスマートスピーカのすぐそばまで近づく必要があった。その後の新しい研究では、このような超音波攻撃を25フィート(約8m)離れた距離からでも実行できることが示唆されている。

 NYTが今回報じた最新の研究は、カリフォルニア大学バークレー校の研究者らによるものだ。研究者らは秘密の命令を全く別のフレーズの音声内に隠し、Mozillaのオープンソースの音声認識モデル「DeepSpeech」に認識させた。人間はこの命令を聞き取ることができなかったという。秘密の命令を短い音楽クリップの中に隠すこともできたとしている。

 Carlini氏はNYTに対し、「悪人たちは、私がしているのと同じことを実行できる人材を既に雇っているのではないか」と述べ、同氏らはやがて市場のあらゆるスマートデバイスに対して悪意ある攻撃を仕掛けて、成功させられるようになると確信していると伝えている。

 「われわれはそれが可能であることを実証したいと考えている。それを受けて、ほかの人々が『これが可能であることは分かったので、修正方法を考えよう』と言ってくれることを期待している」(Carlini氏)

 米CNETが話を聞いたいずれの企業も、これらの攻撃が可能であることを否定しなかった。攻撃を阻止できそうな具体的な解決策を提示した企業も1社もなかった。

 Googleの広報担当者は、「Googleアシスタントには、人間に聞こえない音声命令の使用などの攻撃的行為を緩和する機能がいくつか備わっている」として、その例を挙げた。

 Amazonの広報担当者は、「当社は具体的なセキュリティ保護手段に関する情報開示を制限している」と述べ、「しかし、Amazonは顧客のセキュリティを重視しており、当社製品の安全性とセキュリティを確保するための充実したチーム群を有しているということはお伝えできる」とした。「Echo」製品の安全性を保つための同社の取り組みについても説明した。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]