清水:問題は人間と機械の意思疎通ですね。人間同士なら会話やアイコンタクトで通じますが、機械相手ではそうもいきません。機械から人間への発信は音や振動、フラッシュなどが考えられますが、適した手法はあるのでしょうか。
稲垣:機械が人に何かをやらせようとする場合なら警報でよいのですが、先ほどの事例のように、横から入ってくる車に気づいていないことを人間に伝えるのは意外に難しい。機械が見ている世界を逐一音声で伝えられてもうっとうしいですから。
やはり、機械が見ている世界をディスプレイに提示するのがよいのではないでしょうか。モニターに映っていない領域があれば、センサーが検知する限界がわかりますよね。一般に、ドライバーはマニュアルを読み込んでから車に乗るわけではなく、運転しながら車の特性をつかんでいくものです。ある日のドライブで「この辺りが見えにくいのかな」と気づき、また別の日に「やっぱりここは見えないんだ」とわかれば、自車のモノの見方や考え方を知ることができますから、乗るたびに新しい発見があって楽しいのではないでしょうか。
自動車メーカー各社の動き
清水:トヨタ自動車の自動運転デモ車両はセンサーで得た周辺情報を前方のモニターに3Dで示していました。前の前を走っている車や後方の車の状況までわかりますから、これをヘッドアップディスプレイに表示するだけで随分と運転しやすくなるはずです。いわゆる自動運転の技術がまったく搭載されていないレベル0の車でも安全運転支援として有効な技術だと思いました。
一方、メルセデス・ベンツは2025年ころをイメージしたコンセプトカー「F015」で、完全自動運転になったときの車と人間のインタフェースについて問題提起しました。F015は歩行者を認知していることを知らせるために、道路上にLEDで横断歩道を示します。自動運転はドライバーと車のHMIだけでなく、社会と車とのインタフェースも考えていく必要があります。
レベル1:自動ブレーキやクルーズコントロールのように部分的にコンピュータが介在する状態
レベル2:操舵(ハンドル機能)が複合的に加わった状態
レベル3:半自動運転。条件次第ではドライバーは監視義務から開放可
レベル4:完全自動運転
無料会員登録はこちら
ログインはこちら