自動運転車の事故はだれが責任をとるべきか 哲学者が考える「自動運転社会」の責任の所在
最近の自動運転車の公道実験の報道は、その実装に向けた技術的課題を克服しつつあるかの印象を与える。その一方で、報道の末尾に、自動運転車に纏(まつ)わる法律や規則の整備がまだ課題として残っていると付け加えられることもある。
この指摘を聞くと、技術的にはすでに完成しつつある自動運転車の社会実装が、社会制度が未整備であることによって、阻まれているかのようにも感じられるだろう。
社会制度上の課題としてよく指摘されるものは、「自動運転車が事故を起こしたときに誰に責任を帰すべきか」という問題である。自動運転車が人命保護を第一にするように設計されていたとしても、搭乗者の生命と歩行者の生命との二者択一を自動運転車がその場で決断せねばならないような事態は起きうるだろう。そして、その決断から生じるだろう望ましくない帰結に誰がどのような責任を果たすべきか、という問いも発生する。
そのような決断を促すコードを書いたのは設計者だという事実を重視するならば、生命の選択を行ったその技術者がすべての責任を負うべきだ、という主張は成立しそうであるし、一定の説得力すら持っている。だが、この問いにいかなる事故でも従うべき単純なルールを用意することはあまり有効ではない。というのは、事故は多様な原因によって引き起こされるからである。
事故責任をメーカーに求めたくなる根拠とは
例えば、搭乗者の理不尽な指示によることもあれば、歩行者の不用意な飛び出しによることもあるだろう。誰かが石を投げつけたため、自動運転車のセンサーの一部が故障した場合も事故を引き起こしうる。路面や天候の状態が悪いため、自動運転車のコントロールが失われることもあるだろう。
つまり、自動運転車が事故を起こしたときは、人間が操作する自動車の場合同様、現場検証を行い、その事故の直接の原因が何に由来するのかを検証し、検証結果に応じて、責任を搭乗者に負わせるか、メーカーに負わせるか、それとも別の人物に負わせるかを判断することが、社会的公正の観点から見ても望ましい(さしあたり、人工知能自体に非があるという選択肢は除外しよう)。
厄介なことに、ニューラルネットワークを基盤とする人工知能の内部プロセスの一部はブラックボックス化しており、自動運転車の振る舞いの原因を説明することが不可能な場合がある。事故の責任をとりあえず搭乗者やメーカーに求めたくなる根拠のひとつは、この説明不可能性にある。