有料会員限定

医療AIは危険でいっぱい テック企業の口車に乗るな

✎ 1〜 ✎ 558 ✎ 559 ✎ 560 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小

患者は間もなく、各人の病歴とビッグデータにより導き出された医療用の占星図(ホロスコープ)を個別に授けられることになる──。グーグルのヘルスケア部門トップで、占星術マニアを自認するデビッド・ファインバーグ氏は2020年初め、米紙ウォールストリート・ジャーナル(WSJ)のインタビューで興奮して語った。だが、たとえ私たちがそのような未来を欲しているのだとしても、ヘルステックの伝道師たちの売り文句を額面どおりに受け取ってはいけない。

近年、米国の巨大テクノロジー企業はITを医療に活用するヘルステックにこぞって参入している。ビッグデータや人工知能(AI)を使えば、医療費を節減でき、診断にも革命がもたらされると彼らは胸を張る。間違いなど起こりようがない、というわけだ。

実際には、間違いがかなり多いことが明らかになっている。データサイエンティストのキャシー・オニール氏はその著書『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』で、AIやビッグデータが人々に不利益を与えた事例を列挙している。これらは極めて差別的で、破壊的な結果をもたらしうる技術なのだ。医療も例外ではない。医療データの質は臨床時の主観的な判断や測定ミスなどに影響される。にもかかわらず、ヘルステックは完全無欠であるかのように宣伝されている。

関連記事
トピックボードAD