あなたはAIが診断する病院にかかりたいですか

人間の安全を脅かすリスクも存在している

IT技術の進歩は医療関係者にもさまざまな悩みをもたらしています(写真:metamorworks /PIXTA)
近年、遺伝子検査や再生医療など、先端医療が大きく発展している。特に人工知能の活用が期待されているが、生命を左右するような大きな危険も伴う。橳島次郎著『先端医療と向き合うー生老病死をめぐる問いかけー』を一部抜粋・再編集し、AIが診断や治療方針を決定することの課題点を提示する。

人工知能が個人情報を駆使して医療に関わるようになると、どのようなリスクがあるのか、それに対してどのような配慮が必要なのか。

人工知能が発達し続けると、予想されるリスクとして、よくいわれるのは、いまは人間がやっているいろいろな作業を、人工知能がずっと上手にこなすようになって、人間から職を奪うのではないか、という危惧だ。

さらに、高度に自律した情報処理と判断決定の能力を人工知能に与えると、人間が守りたい権利や尊厳に反する、人間が持つ価値観とは異なる判断が重なって、結果として人間の安全・安心を脅かすようになるのではないかとの危惧もある。

偏った価値観が反映される恐れもある

そこで、人工知能が人間の安全と権利や尊厳を侵す決定をしないように、設計段階から人間の価値観を学習させて運用することが求められている。その際に大きな問題になるのが、「アルゴリズムのバイアス」である。人工知能に学習させるプロセスに、それを設計する研究者・技術者あるいは社会全般が持っている、特定集団などへの偏見を含む偏った価値観が反映されると、その学習から導き出される判断や決定に悪影響を与えることになる。

医療の分野でいえば、たとえば、認知症を伴う後期高齢者や障害者、外国人などを対象にした診療の困難さばかり強調したデータを学習させると、そうした特定のグループに対し必要な医療を行う判断が導かれなくなる恐れがある。偏りのない学習をさせ、そうした事態が起こる可能性を防ぐことを、人工知能を開発する研究者・技術者は求められている。

だが、そのようにして人間の価値観を備えた人工知能がつくれたとしても、そもそも人工知能にそうした価値判断をさせてよいのか、という問題は残る。これは医療などの現場で、人工知能を何らかの決定に用いる際の、責任のあり方につながる課題である。

次ページ健康被害が出たら責任は誰が負う?
関連記事
トピックボードAD
ビジネスの人気記事
  • コロナ後を生き抜く
  • 日本と中国「英語教育格差」
  • 検証!ニッポンの労働
  • 岐路に立つ日本の財政
トレンドライブラリーAD
アクセスランキング
  • 1時間
  • 24時間
  • 週間
  • 月間
  • シェア
トレンドウォッチAD
スペシャルインタビュー<br>元ラグビー日本代表・畠山健介

今年から米メジャーリーグ・ラグビーのチームに所属、華やかな選手生活とは裏腹に幾多の葛藤を乗り越えてきた畠山選手。「ラグビーファンの拡大には、リーグのプロ化が不可欠だ」。新天地にいる今だから見えてきた日本ラグビー改革論を熱く語ります。