経営者のための経営情報サイト for THINKERS

sponsored by accenture

< TOPページに戻る

AD

AI時代、ビジネスはこう変わる 前編 AIの行く末に悲劇を
もたらさないためにできること

「第3次AIブーム」といわれる昨今、ちまたでは「AIが雇用を奪う」「AIが人間の能力を超える=シンギュラリティ」などのAI論が盛んに語られている。一方で、『AI vs. 教科書が読めない子どもたち』の著者である国立情報学研究所の新井紀子教授は、長期的な戦略のないAI投資が及ぼす社会的影響について警鐘を鳴らす。AIによって企業はどう変わるのか、また、AIとの協業によってイノベーションをもたらすために必要なこととは何か? 新井教授と、アクセンチュアのイノベーション・ハブ東京共同統括でマネジング・ディレクターを務め、データ分析・人工知能領域のスペシャリストである保科学世氏が意見を交わした。

制作:東洋経済企画広告制作チーム sponsored by accenture

“一瞬だけ便利”では、社会全体での
持続的成長にはつながらない

保科『AI vs. 教科書が読めない子どもたち』を拝読して、子どもの読解力が落ちている原因に、企業のデジタル戦略も大きく影響していると感じました。新井先生が“読解力がない”と考えているのは日本の子どもたちに限ったお話ですか。それとも世界的な問題でしょうか。

新井世界的な問題だと思います。

保科やはりそうですよね。近年では、Twitterのような短い文章や、Instagramのような画像、YouTubeのような映像など、読解力を必要としない手段で企業は消費者とコミュニケーションを取るようになってきています。便利な一方で、受け取る側の考える力を奪っているのでは、とちょうど考えていたところでご著書を拝読しました。

新井今はスワイプとタップだけで情報を得ることができてしまう時代です。ユーザーをなるべく長い時間ネットに接続させて、最終的には何かを買わせるようにする。ITサービスを提供する側は、世界の名だたる数学者を囲い込んで、より売れるサービス開発を実現しようとし、そのための最適化を進めています。

自分で考えるよりも、世界的な大手IT企業がつくった最適化ツールに身を委ねて、検索もせず、ただスワイプとタップだけをしていたい、と考える人は確実に増えています。近年浸透してきたスマートスピーカーと呼ばれる製品を使うと、文字すら読む必要がありません。今の子どもには、欲しいものを探したり、いろいろ考えたりするより前に、何を買うべきかが提示されてしまっているんです。

かつて、レコードやCDなんかをいろいろ試行錯誤して購入して、時には失敗もあり、でもその中で自分の好きな音楽に巡り合った、といった経験は皆さんがお持ちだと思います。しかし、今の子どもにはそういった機会がありません。

保科私自身、子どもの考える力が失われつつあることに危機感を持っており、以前から企業市民活動として小学生向けのロボットプログラミング教室をやっています。そこではプログラミングのスキルももちろんですが、身近な社会課題は何かを考え、それをどう解決するのか、動くデモをつくって発表してもらっています。AIに仕事を奪われる心配をする方も多いですが、そんな心配をしている間にも、機械に何をやらせて人間は何をするべきなのかを考えたいですし、子どものうちから、世の中の課題とは何かを考え、それを自ら手を動かして解決するトレーニングを積んでもらいたいという意図があります。

新井すばらしいお取り組みだと思います。ですが、難しさもありますね。日本には現在約2万の小学校があって(※)、1学年の人数は約100万人ほどです。仮に100万人のうち1万人がそういったイベントに参加できるとしても、そのうち内容に感化されて本当に社会課題を解決するようなプログラムを将来書くまでになるのは100人程度ではないでしょうか。そうすると、どうしても社会全体の最適化のほうが数という影響力で上回ってしまうでしょう。

新井 紀子国立情報学研究所教授

東京都出身。一橋大学法学部およびイリノイ大学卒業、イリノイ大学大学院数学科課程修了。博士(理学)。専門は数理論理学。2011年より人工知能プロジェクト「ロボットは東大に入れるか」プロジェクトディレクタを務める。2016年より読解力を診断する「リーディングスキルテスト」の研究開発を主導。主著に『コンピュータが仕事を奪う』(日本経済新聞出版社)、『ほんとうにいいの? デジタル教科書』(岩波書店)、『AI vs. 教科書が読めない子どもたち』(東洋経済新報社)など。「教育のための科学研究所」代表理事・所長も務める。

保科そうですね。しかしながらプログラミング教育必須化を目前にして、こういった活動をするのは無駄ではないと信じています。このプログラムの中で、小学生とはいえ短時間のデモでとてもすばらしい発表をしてくるんです。先日実施した教室でも、人感センサーと簡単なロボットを使って、目の見えない方に障害物を知らせる仕組みをつくったり、怪しい人を検知してスマートフォンに写真を自動送信するような簡単な警備システムをつくったり。しっかりと機会を与えれば、自ら解決すべき課題を考え、プログラミングを使った課題解決ができる。地道にですが、そうした経験を通じて、子どもたちが考える力やリテラシーを身に付けられる機会を増やしていけたらと思っています。

新井私は2018年6月5日に、持続可能な開発目標をテーマとした国連「STIフォーラム」に登壇したのですが、そこでは、デジタライゼーションのエコシステムについて話をしました。

デジタライゼーションによって、“一瞬”は誰でも便利になるんです。たとえば、政情が不安定なアフリカの国で、銀行システムが行き届いていなかったり、現金を持っているとすぐに強盗に遭ったりするような場合です。こういった状況では、電子決済サービスは非常に歓迎されますし、いろいろな国から投資も集まります。ですが、それを通じて、その地に新たな産業が生まれるわけではありません。儲かるのはサービスを提供する側や投資家など一部だけで、結果として富の収奪が起こることになります。また、たとえ、その国から優秀な人が育ったとしても、勉強した揚げ句欧米の一流大学に留学して戻ってこない、といったことも起こる。これでは、持続可能なエコシステムは成り立ちません。

その一方で、エコシステムは一方的に収奪しすぎるのではなく持続可能性がないといけない、ということに気づき始めた人も多いんです。ハゲタカファンドと呼ばれるような人たちですらそういうことを言い出しています。

保科少し違う角度からの話になってしまうかもしれませんが、AIを使う場合、AIにデータが集まってこないと最適化した答えを出すことができません。そういう中で、個人情報も含めデータを委ねる側からすると、どこまでその企業が信用できるか、が重要になります。それを判断する際に、その企業が社会の持続可能性まで考えている企業だったら信頼しやすいのではないでしょうか。逆に言うと、これからは単に儲かっているというだけでは、企業は信頼されなくなってしまいますし、そういった企業にデータを委ねようとは思わないでしょう。

新井最近、仮想通貨でいくつか問題が起きました。しかし、それは仮想通貨に使われるブロックチェーンのテクノロジー自体に問題が起きたわけではなく、“預ける行為”に問題が起きたのです。つまり、仮想通貨に対するリテラシーがない人が、よくわからないまま取引所に管理を委ねてしまったことに問題がありました。しっかり仮想通貨を管理するには数学などの相当な知識が必要です。こういう知識がある人は1000人、いや1万人に1人くらいかもしれません。でも、仮想通貨に関心がある人は100人に1人以上いて、リテラシーがなくても委ねられる取引所に管理を一任してしまっている。こうしたシステムを使っているうちは、絶対にリテラシーは身に付かない。このミスマッチが問題の本質にあると思います。

コスト削減のための
AI活用が招く事態とは?

保科AIに関しても、導入する側がリテラシーを持つ前に、“当面の生産性を上げるため”の人間の仕事の置き換えが進んでいます。ただ、AIは人間そのものを置き換えられるというものでは決してありません。人が得意とするところは何で、機械にできることは何なのか。特に労働力不足が顕著な日本では、労働集約的な作業のAI置き換えが検討されています。どういう職業が置き換えられるかという議論は、もはや時代遅れです。部分部分で置き換えられるポイントがあり、それが集積されていくのです。

新井考えるべきは、AIを使った結果起こることですね。現状では、AIを使って得られるのは、“一瞬だけ便利”なコスト削減であり、減った分の人件費をはじめとしたコストが、最適化した企業に集まるという構図になっています。

そうなると、当然、労働者の賃金の中央値は下がり、消費は減ります。2018年、日本ではエンゲル係数は上昇しており、人々の暮らしはますますカツカツになっていくでしょう。そうすると、美容院に行けなかったり、介護を依頼できなかったり、という事態が起こります。本来、AIに置き換えられる仕事ではなかったはずの美容師さんや介護福祉士さんの仕事が減り、所得が減ってしまうということが起こりかねないんです。

つまり、AIによるコスト削減で得た利益の再配分ができない限り、AIの力でいい世の中につながるとは考えられない。この問題を解消するアイデアは現状では出ていません。ビル・ゲイツはこの問題を認識しているからこそ、ボランティア活動に力を入れているんだと思いますが、ITで収奪された利益をボランティアだけで再配分するのは難しいでしょう。ヨーロッパではGDPR(EU一般データ保護規則)をはじめとした、収奪を制限するための動きが出始めています。今後、国民国家とグローバル企業による最適化の対立構造が生まれていくのではないでしょうか。

保科これは非常に難しい問題ではありますが、そもそもテクノロジーの普及によって、企業や政府、個人の距離がどんどん近くなってきている今、先ほどもお話ししましたように企業の価値が利益だけではなくなりつつある。個人や社会に信頼されうるか、世の中のためを考えているか、安心してデータを、さらにはさまざまな判断を任せられるか、そういった指標によって測られる未来が近いうちに来ると信じています。

今まで企業は投資家を強く意識し、また投資家により主に評価されてきましたが、今後は、より個々人が評価するようになるでしょう。現状ではまだそのリテラシーも仕組みも不十分とは思いますが、グローバルなIT企業の中にも、信頼性を高めている企業と失っている企業の差が出てきていると感じます。

保科 学世アクセンチュア デジタルコンサルティング本部
アクセンチュア・デジタル・ハブ統括
マネジング・ディレクター

データ分析(アナリティクス)に基づく在庫・補充最適化サービスやレコメンド・エンジンなど、アナリティクスソリューションの新規開発を統括。また、それらをクライアントの業務改革を実現するサービスとして提供する際の責任者として、数多くのプロジェクトに携わる。近年は、AI領域のソリューション開発に注力。理学博士。2018年秋発刊予定の『HUMAN+MACHINE AIにできる仕事、できない仕事』では、日本語版独自章の執筆を担当。

寡占による権限集中が
もたらすもの

新井大きな企業であれば体制を整えて信頼性を担保することは可能かもしれません。ですが、大手企業が信頼性をアピールして、皆がそこにデータを預け、最終的には寡占が起きる。それで本当にいいのでしょうか。

AIの将来を暗示していると感じる事例があります。オランダのエルゼビアという学術論文の出版社を、ヨーロッパの投資家が買収しました。すると投資家は、自分たちで提出された論文の格付けを行うようになり、その論文の格付けに基づいて大学の格付けもするようになったんです。研究者はエルゼビアに評価される論文を書かないと就職もできない状況になりました。そしてエルゼビアは学術誌の市場で寡占状態になった途端に論文の購読料を倍に引き上げたんです。最終的には、高騰する購読料への抗議として、ドイツの学術機関をはじめ各国がエルゼビアとの契約を打ち切る動きが出てくる事態にまでなりました。

保科寡占は瞬く間に起きますし、それが起きた後に対抗するのは極めて難しいですね。寡占が発生しうるというのは、データを集められるかどうかで勝敗を大きく左右するAIについても同じように言えそうです。さらに、問題の深刻化に至るまでのスピードも速いでしょう。

新井そうなんです。一気に崩壊してしまうと思います。エルゼビアの例では、論文の査読を研究者がボランティアでする、というエコシステムが崩壊しました。AIでも権限集中によって寡占が起こると、取り返しのつかない事態になると思います。

保科社会の監視・評価体制がないことには、私も非常に危機感を持っています。

  ですが今のAIに関して、この状態が危ないということを判断するには相当なリテラシーが必要とされるでしょう。一方で、たとえば政府の過度な規制により、社会に役立つイノベーションまで潰されてしまっては、本末転倒です。企業は消費者から信頼されるように、自らのAIやデータの明確な活用指針を示すべきで、それができた企業こそが、業界のリーダーとなっていくのではないでしょうか。


RECOMMEND

東洋経済のメルマガを購読する