あなたはAIが診断する病院にかかりたいですか 人間の安全を脅かすリスクも存在している

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

人工知能が医療上の判断(診断や治療方針の決定)に関与した場合、その判断の結果、健康被害などが起こってしまったら、誰が責任を負うのだろうか。悪いのは医師か、人工知能か?

この点について検討した報告書をフランス議会の特命委員会が2019年に出している。それによると、医師は、自らの側に過失があったことについてのみ、損害賠償などの法的責任を負う。用いられた人工知能のプログラムなどに欠陥があれば、設計者や製造者の責任が問われる。つまり、人工知能を医療において使うのは、ほかの医療用具を使うのと同じで、使う側の医師の責任と、用具を設計・製造・販売した側の責任を分けて考えればいい。

また、同報告書は、人工知能が推奨した判断に医師が従わなかったことで有害な結果が起こった場合は、たとえ人工知能の判断が正しかったとしても、それに従わなかったという事実だけで、医師に過失責任を負わせることはできないとしている。これは、医師という高度の専門職に与えられた自律と裁量の権利を守るためだという。

人工知能はあくまでも医療用具の1つ

現状では、人工知能は医療の現場で判断をすべて任せられるような自律性も信頼性も備えていない。あくまで医師の判断を補助する道具(要はレントゲン写真や血液検査などと同じ)にすぎない。しかもまだ試験研究段階の新しい技術だ。

人工知能を用いる医療は、いま実証研究の途上にある。それもまた臨床研究の一種である。その臨床研究が重ねられた結果、安全性と有効性が認められれば、医療用人工知能プログラムが、現場で日常的に私たちを迎える日が来る。そのときでも、人工知能は医療用具の1つであるという位置付けを、変えるべきではないだろう。

『先端医療と向き合うー生老病死をめぐる問いかけー』(平凡社新書)書影をクリックするとアマゾンのサイトにジャンプします

道具に欠陥があれば製造・販売者の責任、道具の使い方にまちがいがあれば使った医師の責任になる。つまり、人工知能を用いてくだされた判断に対する責任は、いずれにせよ人間の側が負わなければならない、ということである。

それならば、安心して人工知能を使った医療を進めてもよいと、考えていいだろうか。あなたは、自分が人工知能を用いる医療の臨床研究の対象になることに、進んで同意しようと思えるだろうか。ここまで書いてきたことは、それを考える材料にしてもらえればよい。

橳島 次郎 生命倫理政策研究会共同代表

著者をフォローすると、最新記事をメールでお知らせします。右上のボタンからフォローください。

ぬでじま じろう / Nudejima Jiro

1960年横浜生まれ。東京大学文学部卒。同大学大学院社会学研究科博士課程修了(社会学博士)。専門は生命倫理、科学技術文明論。三菱化学生命科学研究所主任研究員、自治医科大学客員研究員、東京財団研究員などを経て、生命倫理政策研究会共同代表。著書に『脳死・臓器移植と日本社会』(弘文堂)、『先端医療のルール』(講談社現代新書)、『生命の研究はどこまで自由か』『精神を切る手術』『もしも宇宙に行くのなら』(以上、岩波書店)、『生命科学の欲望と倫理』(青土社)、『これからの死に方』(平凡社新書)、『移植医療』(岩波新書、出河雅彦氏と共著)などがある。

この著者の記事一覧はこちら
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ビジネスの人気記事