自律システムの革命が始まりつつある中、ある1つの事実がこの半世紀ずっと根強く存在している。ロボットの操作は悩みの種だということだ。だが仮想現実(VR)がその事実を覆す鍵となり、人間と機械の両方にとって新たな領域を切り開く可能性があることが明らかになった。
ロボット用ソフトウェアを提供するエスイーフォー(SE4)はこのたび、建設現場や災害復旧での利用が増大しているロボットを遠隔操作するための有望な新しい技術を披露した。この技術を利用した今後の大規模なユースケースの1つは、宇宙で行われる可能性がある。ロボットが間もなく宇宙を開拓し、人間の定住に先立って他の惑星に建物を建設することさえ考えられる。
だがひとまずロボットの操作が悩みの種である点に話を戻そう。ロボティクスのヒューマンマシンインターフェース(HMI)に取り組む人々は、最優先の目標に向けて足並みを揃えている。その目標とは、ユーザーがデバイスの機能性を制限することなく、複雑なロボットをできるだけシンプルで分かりやすい方法で操作できるようにすることだ。つまり、これまで以上に多くのユーザーが、ロボット工学の博士号を取得しなくても複雑なロボットを活用できるようにしたいということだ。
つい最近まで、エンドユーザーらは実際にプログラミング言語を使ってロボットをプログラミングする必要があった。この方法には明らかにマイナス面がある。すなわち、自分の仕事に使うためにロボットを購入した人がおそらく初めからプログラミング言語を知らないということだ。
ごく最近、大きな進歩によりそのマイナス面が改善されている。多くの産業ロボットが、コマンドが視覚的に重なるブロックベースのプログラミング言語を使ってタブレットでプログラムできるようになっている。また、Programming by Demonstration(PbD:デモンストレーションによるプログラミング)と呼ばれる、ユーザーが自分の体を使い、タスクを実行する際の動作に合わせてロボットを物理的に動かす機能もある。
VRによって、ロボットの操作方法は決定的な進化を遂げている。プレーヤーがVRでアバターを動かしてタスクを実行する方法は分かりやすい。ではそのアバターが実世界の物理的なロボットを表すとしたらどうだろうか。ユーザーはどのように体を動かせばバーチャルなタスクを実行できるかを自然と理解している。VRシステムは、とらえた動きをコマンドに変換する。ビデオゲームでは単にコマンドがアバターを動かすが、ロボティクス操作の新たな領域ではコマンドがロボット操作のためにコード化される。
SE4の技術は、オペレーターをバーチャル上でパイロット席に送り込み、その場にロボットを同乗させることができる。単にドローンやRCカーと同じようにロボットを遠隔操作するのではなく、この技術はユーザーがバーチャルに複雑なタスクを実行できるようにする。このシステムの人工知能(AI)は行われている動作だけでなく、その目的も理解する。ユーザーは基本的にロボットにしてほしいことを実行する。するとシステムのAIが最終目標から最初の段階へ逆方向に考え、ロボットに送信される具体的な指示を展開する。
素晴らしい利点が1つある。指示は段階ごとではなく一括で送信されるので、この方法では多くのケースで遅延が問題にならない。地球から送信される指示が火星や宇宙の他の場所へ到達するのに何分もかかることを考慮すると、これは機械を未開の地へ送る計画において考慮すべき重要な点となる。
SE4のVR操作による方法ではさらに、1人のユーザーが1度の処理で複数のロボットを動かすことができる。これは建設など地上における多くの状況で非常に有益で、ロボットの協同が可能になることにより機能性が著しく拡張される。
SE4の取り組みは、VRがいかにオートメーションの力を解放するのに役立つかを示す最新の例だ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果