音声作動式デバイスがますます多くの家庭に普及している。それを受けて、研究者らはありとあらゆる音声作動式製品の潜在的な脆弱性について、懸念を抱くようになっている。
The New York Times(NYT)によると、それらの脆弱性には、人間には聞こえない周波数で録音され、人間には無害に聞こえる音声に隠すことが可能な命令が含まれることを、一部の研究者が主張しているという。研究者らによると、そうした秘密の命令の技術が悪人の手に渡れば、それを利用して、メッセージの送信や買い物、送金、これらの音声アシスタントが現時点で実行可能な事実上あらゆることを、ユーザーに全く気づかれずに実行されるおそれがあるという。
その全ては、われわれが2017年に目にしたことから一歩前に進んでいる。当時、中国の研究者らは、人間に聞こえない超音波を送信して「Siri」「Alexa」「Cortana」「Google Now」など人気の音声アシスタントを起動できることを示した。「DolphinAttack」と呼ばれるその方法を実行するには、攻撃者がユーザーのスマートフォンやスマートスピーカのすぐそばまで近づく必要があった。その後の新しい研究では、このような超音波攻撃を25フィート(約8m)離れた距離からでも実行できることが示唆されている。
NYTが今回報じた最新の研究は、カリフォルニア大学バークレー校の研究者らによるものだ。研究者らは秘密の命令を全く別のフレーズの音声内に隠し、Mozillaのオープンソースの音声認識モデル「DeepSpeech」に認識させた。人間はこの命令を聞き取ることができなかったという。秘密の命令を短い音楽クリップの中に隠すこともできたとしている。
Carlini氏はNYTに対し、「悪人たちは、私がしているのと同じことを実行できる人材を既に雇っているのではないか」と述べ、同氏らはやがて市場のあらゆるスマートデバイスに対して悪意ある攻撃を仕掛けて、成功させられるようになると確信していると伝えている。
「われわれはそれが可能であることを実証したいと考えている。それを受けて、ほかの人々が『これが可能であることは分かったので、修正方法を考えよう』と言ってくれることを期待している」(Carlini氏)
米CNETが話を聞いたいずれの企業も、これらの攻撃が可能であることを否定しなかった。攻撃を阻止できそうな具体的な解決策を提示した企業も1社もなかった。
Googleの広報担当者は、「Googleアシスタントには、人間に聞こえない音声命令の使用などの攻撃的行為を緩和する機能がいくつか備わっている」として、その例を挙げた。
Amazonの広報担当者は、「当社は具体的なセキュリティ保護手段に関する情報開示を制限している」と述べ、「しかし、Amazonは顧客のセキュリティを重視しており、当社製品の安全性とセキュリティを確保するための充実したチーム群を有しているということはお伝えできる」とした。「Echo」製品の安全性を保つための同社の取り組みについても説明した。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」