テスラの運転支援システム「人身事故続発」のなぜ 運転手の監視ゆるい?オートパイロットの盲点

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

だが、オートパイロットに関連した事故は、そうしたテスラの地位を脅かす要因ともなりかねない。規制当局が行動に乗り出す可能性が浮上しているためだ。アメリカ運輸省高速道路交通安全局(NHTSA)は現在、オートパイロットが関連した事故約20件について調査を進めている。

2016年以降、オートパイロットが障害物の検知に失敗して発生した事故で、テスラ車を運転していた人の少なくとも3人が死亡している。うち2件は、高速道路を横切るトレーラーに対してオートパイロットがブレーキをかけなかったケース。もう1件は、コンクリート壁を認識できずに激突したケースだ。

NHTSAは6月、2016年以降にオートパイロットが関与した8件の事故で少なくとも10人が死亡したことを示すリストを公開した。ここにはジョバニ・マルドナドさんの死亡事故は含まれていない。

事故を未然に防ぐシステムのはずが…

テスラの信用は揺らぎ、自動運転の専門家からは「マスク氏とテスラが唱えてきたほかの主張も疑問視せざるをえない」といった声があがるようになっている。例えばマスク氏はこれまでに何度も、テスラは完全自動運転の完成に近づいていると公言してきた。完全自動運転とは、ほとんどの状況下で車両の自律運転が可能となる技術を指す。テスラ以外の自動車メーカーやテクノロジー企業が「実現は何年も先になる」としている技術だ。

マスク氏とテスラは、数回にわたるコメントの求めに応じなかった。

オートパイロットは「自動運転システム」ではない。車線変更などの運転操作を代行し、事故を未然に防ぐ「運転支援」を目的としたソフトウェア、カメラ、センサーによって構成されるシステムだからだ。テスラの幹部は、操作をコンピューターに委ねれば、ミスを犯したり、注意散漫になったりしがちな人間の運転よりも安全になると主張している。

テスラで人工知能部門の責任者を務めるアンドレイ・カーパシー氏は6月、自動運転に関するオンラインワークショップで次のように語った。「コンピューターは(運転中に)インスタグラムをチェックしたりしない」。

オートパイロットが作動している間、運転手が緊張を緩めるのはいいが、完全に気をそらすことは想定されていない。ステアリングをきちんと保持し、視線を道路から外さず、いざシステムが混乱したり、障害物や危険な交通状況を認識できなかったりした場合には、いつでも運転を代われるようにしておくことが大前提になっているわけだ。

次ページ運転しながら読書したり、眠る人も
関連記事
トピックボードAD
ライフの人気記事