自動運転車の事故はだれが責任をとるべきか 哲学者が考える「自動運転社会」の責任の所在
そのような人間が、自動運転車に悪意ある操作を行うだろうことは十分に想像の範囲内であるし、その方法も無数に想定できる。開発者がデバッグに備えてコードを残しておいたとするなら、そのコードを利用して操作を乗っ取り、自動運転車に事故を起こさせることはできそうなことである。
その自動運転車に通信による監視と外部操作の機能が備わっている場合、そのプロトコルが流失してしまえば、第三者がその種の自動運転車を運転できることになる。
自動運転車を構成する部品の外注先に賄賂を渡したり脅迫したりして、外部操作を可能にさせるチップを取り付けさせるのもいいだろう。われわれには絵にしか見えないが、自動運転車の画像判別システムには道にしか見えない画像をビルに掲げておけば、そのビルに自動運転車は突っ込むかもしれない。
さらに単純に、交通標識の一部にテープやシートを張っておくだけで、自動運転車は勝手に事故を起こすかもしれない。自動運転車の事故が、その挙動の原因が解らないという根拠によってすべて悪意のない不運な事故だと見なされてしまうなら、悪意ある人間にとっては格好の「遊び場」が誕生することになる。
もちろん、このような悪戯は、技術的に解決可能かもしれない。だが、開発者、メーカー、搭乗者の善意には従うように動作するが、悪意には絶対に従わないような自動運転車のシステムがデザインできるようには思えない。
なぜなら、人間が取りうるあらゆる行動やそれぞれの行動の善悪の判断すべてをコード化したり、学習させたりすることはできそうにない。仮にできたとしても、そのために必要なハードウェアを自動車に搭載することにどれほどの合理性と経済性があるかは疑問だからである。
必要な規範とは
そもそも、他者の行為や発言が善意に由来するのか、それとも悪意が背景にあるのか、その場で正確に判断できる人間はどれだけいるだろうか。
自動運転車、そして人工知能は、悪意が少なからず存在するわれわれの社会に受け入れるには、あまりにも無垢すぎる。それでもなお、自動運転車や人工知能を社会の中で有意義に活用しようと望むのであれば、人工知能を悪意から守る規範を社会の側で用意しておかなければ、かえって社会の崩壊を招きかねない。
その用意すべき規範は、法やルール、安全審査基準にとどまらず、悪意から自動運転車や人工知能自体を保護するための設計デザインにも及ぶべきである。そのような規範はどのようなものか、という問いに返答を与えることは、現在の筆者にできそうにない。ただし、この規範は、メーカーや開発者を不当に縛るものでは必ずしもないだろう。
というのも、この規範は、自動運転車に関わるすべての人間を悪意から守るものであり、その規範に沿うような技術を開発することは、さらなるイノベーションを生み出すことでもあるからである。
RISTEX「人と情報のエコシステム」
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら