AIにおける技術革新のおかげで、われわれの生活は一昔前とは比較にならないほど便利になっています。スマホでタップするだけで自分に合ったさまざまなサービスが手軽に利用できるようになりました。しかし、世の中における公平性への意識が高まるにつれて、「AIは公平な判断を下しているのか」「AIによって知らず知らずのうちに不利益を被っているのではないか」という問題意識や不安は、確実に広がっています。
これからのAIを「責任あるAI」にしていくことは、そういった情勢の中でAIを活用して着実にビジネスを成長させていくためにもはや避けては通れないのです。
「責任あるAI」への4つのアプローチ
先に「責任あるAI」を実践していくための5つの行動原則「TRUST」について触れました。TRUSTとはTrustworthy(信用できる)、Reliable(信頼できる)、Understandable(理解できる)、Secure(安全が保たれている)、Teachable(ともに学びあう)の頭文字で、AI倫理の根幹を成す原則です。
これらを実際に実践していくためにはどのようなアプローチがあるのでしょうか? われわれは、そのアプローチを「技術」「ブランド」「ガバナンス」「組織・人材」の4つにまとめました。これらについて説明します。
AIのリスクを認識するためにはAIを技術的に理解していることが必要不可欠となります。したがって、最初に考えるべきアプローチが技術面でのアプローチです。また技術は、TRUSTのあらゆる側面に関係する最も重要な要素です。
企業・組織として、技術レベルでAIのリスクや影響を判断するためには、AIの開発プロセスに着目します。AI開発プロセスとは、一連の機械学習の処理工程を含んだものになりますが、「機械学習の処理工程」という場合、データからの「訓練方法」と「評価方法」にフォーカスがあたっている場合が多いように思います。
しかし、AIが悪さをした最近の事例を見てみると、「データ」に問題があったというケースが多く見受けられます。したがって、「データ」そのものと「訓練方法」「評価方法」の3つの観点でリスクを認識し対策を講じることが重要になってきます。