テスラの運転支援システム「人身事故続発」のなぜ 運転手の監視ゆるい?オートパイロットの盲点
ところがオートパイロットの作動中、前方を見ている以外にほとんどやることのなくなった運転手には、誘惑に負けて注意がおろそかになってしまう人もいる。ツイッターなどではこれまでも、テスラ車の運転席に座りながら読書したり眠ったりする運転手の動画が投稿されてきた。
問題が浮上すると、テスラはたいてい運転手を責めてきた。オートパイロットの使用中にステアリングから手を離したり、安全確認を怠ったりする運転手が悪い、という理屈だ。
だが、オートパイロットに関連した事故を調査した国家運輸安全委員会(NTSB)は、同システムには不適切な使用を防ぐ仕組みや運転手に対する効果的な監視が欠けていると結論づけている。
他社に劣るゆるい監視システム
ゼネラル・モーターズ(GM)やフォード・モーターなどが提供している類似のシステムは、運転手の視線をカメラで追跡し、運転手がよそ見をすると警告が出る仕組みになっている。GMの運転支援システム「スーパークルーズ」では、警告が数回続くと機能がオフになり、運転手が自ら運転しなければならなくなる。
これに対しオートパイロットは運転手の視線を追跡せず、ステアリングに手を置いているかどうかだけを監視する。運転手がステアリングに手を置いている時間が1回あたり数秒だったとしても、作動し続ける場合もある。
カーネギーメロン大学で自動運転を研究するラジ・ラジクマール教授によれば、「簡単にだませるうえ、あまり一貫した監視がなされていないため、本質的に脆弱な監視システム」ということになる。
NHTSAは現時点で、オートパイロットの変更や無効化をテスラに強制しているわけではないが、6月には、この種のシステムに関する事故の報告をすべての自動車メーカーに義務づけると発表した。