自動運転車が人の介入を一切受けることなく、A地点からB地点まで人を輸送できる日が来るとすれば、車両のデザインや乗り心地はどのようなものになるだろうか。
起亜自動車は、MIT Media LabのAffective Computingグループと共同開発したコンセプトを、1月に開催される家電見本市「CES」で披露すると発表した。「Real-time Emotion Adaptive Driving(R.E.A.D.)」というシステムが、搭乗者の気分や感情に合わせて自律型ポッドの環境を調整するようだ。
このポッドのようなコンセプトがいかにして搭乗者の気分に作用するのかという点については、現在詳細がほとんど明らかになっていない。起亜自動車によると、このシステムは人工知能(AI)をベースとする「生体信号認識技術」を利用し、搭乗者の感情を分析するという。さらに、「車内での人の感覚に関連する条件」を調整し、「より楽しそうな移動体験」を作るという。R.E.A.D.システムが、ムード照明やアンビエントミュージック、また香りなどを使って、搭乗者に癒しとリラックスをもたらすことは容易に想像できる。
起亜自動車の研究開発を統括するAlbert Biermann氏は声明で、「R.E.A.D.は、口にはされない『情動的な感情』を介して運転者と車両が絶えず通信できるようにすることで、人の感覚に基づいて最適化された空間をリアルタイムに運転者に提供する」と述べている。
起亜自動車は、詳細はCESで発表するとしている。このコンセプトのようなポッド型の自動運転車が実現されるまでには時間がかかるかもしれない。Audiも、未来の自動運転車のための「新たな運転中のエンターテインメントのフォーマット」をCESで披露する計画だ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」