あなたはAIが診断する病院にかかりたいですか 人間の安全を脅かすリスクも存在している
人工知能が医療上の判断(診断や治療方針の決定)に関与した場合、その判断の結果、健康被害などが起こってしまったら、誰が責任を負うのだろうか。悪いのは医師か、人工知能か?
この点について検討した報告書をフランス議会の特命委員会が2019年に出している。それによると、医師は、自らの側に過失があったことについてのみ、損害賠償などの法的責任を負う。用いられた人工知能のプログラムなどに欠陥があれば、設計者や製造者の責任が問われる。つまり、人工知能を医療において使うのは、ほかの医療用具を使うのと同じで、使う側の医師の責任と、用具を設計・製造・販売した側の責任を分けて考えればいい。
また、同報告書は、人工知能が推奨した判断に医師が従わなかったことで有害な結果が起こった場合は、たとえ人工知能の判断が正しかったとしても、それに従わなかったという事実だけで、医師に過失責任を負わせることはできないとしている。これは、医師という高度の専門職に与えられた自律と裁量の権利を守るためだという。
人工知能はあくまでも医療用具の1つ
現状では、人工知能は医療の現場で判断をすべて任せられるような自律性も信頼性も備えていない。あくまで医師の判断を補助する道具(要はレントゲン写真や血液検査などと同じ)にすぎない。しかもまだ試験研究段階の新しい技術だ。
人工知能を用いる医療は、いま実証研究の途上にある。それもまた臨床研究の一種である。その臨床研究が重ねられた結果、安全性と有効性が認められれば、医療用人工知能プログラムが、現場で日常的に私たちを迎える日が来る。そのときでも、人工知能は医療用具の1つであるという位置付けを、変えるべきではないだろう。
道具に欠陥があれば製造・販売者の責任、道具の使い方にまちがいがあれば使った医師の責任になる。つまり、人工知能を用いてくだされた判断に対する責任は、いずれにせよ人間の側が負わなければならない、ということである。
それならば、安心して人工知能を使った医療を進めてもよいと、考えていいだろうか。あなたは、自分が人工知能を用いる医療の臨床研究の対象になることに、進んで同意しようと思えるだろうか。ここまで書いてきたことは、それを考える材料にしてもらえればよい。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら