ウーバーが起こした死亡事故の重大すぎる罪 実験中の完全自動運転車が歩行者をはねた
これは、事故ではなく事件だ。
次世代自動車の技術開発において絶対にあってはならぬ、大事件である――。
アメリカ現地時間の3月18日夜、ライドシェアリング大手の米ウーバー(Uber)がアリゾナ州テンピで行っていた完全自動運転の実証試験中に歩行者の女性をはねた。女性は病院に搬送されたが死亡が確認された。
これを受けてウーバーは、アリゾナ州、カリフォルニア州、そしてオハイオ州で実施してきた公道での完全自動運転の走行テストを中止したと発表した。
テスラ「モデルS」でも16年に死亡事故
自動運転での事故といえば、2016年5月に米フロリダ州で起きたテスラ「モデルS」による死亡事故を思い出す人は少なくないだろう。日本でも大きく報道され、筆者もさまざまなメディア向けに原稿を書いた。あの事故の場合、死亡したのはモデルSの個人所有者であり、彼はYouTubeでモデルSが搭載する簡易的な自動運転機能を自慢するような性格の持ち主だった。
そのうえで事故の状況を今一度、振り返ってみよう。彼がモデルSを一般道路で日中に走行しているとき、走路を遮るように入ってきた大型トレーラーの側面に太陽光が反射した影響などから、モデルSの単眼カメラによる認識がうまく行われなかった可能性が高いと当局は見ている。
この事故の責任の所在については、道路交通法上は運転者が自動運転機能を過信したことによる安全運転義務違反の可能性がある。また、技術面では画像認識技術について、事故当時にテスラと共同開発していたイスラエルのモービルアイ(現在は米インテルの子会社)及びテスラ社内の自動運転開発部門の責任が考えられる。
一方で、今回アリゾナで起こった事故の責任は100%、ウーバー側にあると考えられる。
これまでのウーバーからの発表では、事故発生時の詳細な状況は明らかにされていない。ただ、これは実証試験中の事故であり「万が一の場合に備えて自動運転技術に精通した者が運転席に常時着席し、いつでもハンドル操作及びアクセル・ブレーキ操作ができうる状態にいなければならない」という、州が定める自動運転実証試験ガイドラインに沿ったセイフティネットを考慮した状況で起こった。
筆者の個人的な見解でも、運転席に着座していたウーバー関係者が運転管理者として義務を果たせなかったという過失になると思う。
無料会員登録はこちら
ログインはこちら