Teslaの乗用車「Model S」が木に衝突して死亡事故が起きたことが記憶に新しいが、米消費者団体が発行する情報誌Consumer Reports(CR)は米国時間4月22日、ドライバーが運転席にいることを確認する同社のシステムを、簡単に欺けることを示した。実験動画には、運転席が無人でも「Autopilot」を作動できることが示されている。テキサス州で先日起きた衝突事故の初動捜査では、2人の犠牲者はいずれも車両を実際に運転していなかったとされている。
現地と連邦の捜査当局からの詳しい発表が待たれる中、CRはシステムをいかに簡単に欺けるかを示した。Autopilotは、米自動車技術者協会(SAE)の定義で「レベル2」に相当する運転支援システムだ(現時点で「完全自動運転車」に相当する車両は販売されていない)。動画の中で、CRの自動車テスト担当シニアディレクターであるJake Fisher氏はまず、Autopilotを作動させて、速度をゼロに減速している。これによってシステムが解除されることはない。続いて同氏は、車両が停止している間に、ハンドルに重りを取り付けた。重りによって、ドライバーの手がハンドルに置かれている状態を模倣し、Fisher氏は運転席から助手席に移動する。運転席のシートベルトは取り付けられたままだ。
この状態で同氏が速度を上げると、Autopilotは運転を開始し、閉じられたテストコースの車線に沿って走行する。このように簡単に、車両はドライバーが運転席に座ったままだと認識してしまう。Autopilotは、ドライバーが運転席に着いて道路前方に注意していることの確認に、カメラなどを利用していない。General Motors(GM)やFordなどのシステムは、カメラを採用している。
「このシステムは、ドライバーが注意しているかどうかを確認しないだけでなく、ドライバーがそこにいるかどうかさえ確認できない」とFisher氏は述べた。「GMやFordなどは、ADAS(先進運転支援システム)搭載モデルで、ドライバーが道路を見ているかどうかを確認するための技術を採用しており、Teslaは、これらの自動車メーカーに後れを取っている」(同氏)
Teslaはコメントの依頼に対応する広報部門を設けていない。
衝突事故を受けて、米連邦政府の多大な関心がTeslaに向けられる中、同社の最高経営責任者(CEO)であるElon Musk氏は、これまでに回収されたデータログによると、この車両ではAutopilotは作動しておらず、「Full Self-Driving(FSD)」のベータ版も装備されていなかったとツイートした。CRは、自動車に搭載されて販売されている他の運転支援システムと同様に、Autopilotも多くの誤りを犯す可能性があると指摘している。誤りを犯したときに突然動作を停止する可能性があり、ドライバーが注意していつでも完全に運転を代われる状態になければ、衝突事故につながる恐れがある。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」