対話と行動で拓くAI新時代「価値の地平」・前編 「正解」の価値低下で、優秀な人材像が変わる
生成AIがもたらす社会的インパクトの本質
山口 小宮山先生はかなり早い段階から地球温暖化の問題に着目され、また20年以上も前からサステナビリティという概念の重要性を説かれてきました。つねに時代の変化をいち早く察知されてきた小宮山先生にお聞きしたいのが、生成AIの登場のインパクトについてです。これほどの速度で技術進化を遂げ、社会に変化をもたらしていくことを以前から予測されていましたか。
小宮山 さすがにこの速さはまったく予測していませんでした。おそらくAIの先端研究者ですら先行きが予見できないほどの変化の中で、次は何が可能になるだろうかと模索しながら研究開発を続けている、そんな状況ではないでしょうか。
山口 AIブームと呼ばれるものは過去にも何度かありました。例えば1997年、スーパーコンピューターが当時のチェスの世界チャンピオンに勝利し、AIの学習手法として「深層学習」は有望であるとの期待感が高まりました。また2010年代にはAIが有名なクイズ王をアメリカのテレビ番組で破ったり、囲碁の世界チャンピオンに勝利したりして、AIの進化の速さを印象づけました。そして2022年、生成AIの一種である高度なチャットボットがリリースされ、一部の専門家だけでなく、一般の人々の間でもAIが本格的に普及する契機となっています。
計算してみたところ、チェスの世界チャンピオンに勝ったスーパーコンピューターは現在、量販店の店頭に並ぶパソコンとほぼ同じ性能です。ハードディスクの容量などは違いますが、計算スピードは同等といっていい。つまり1997年から約四半世紀で、かつてのスーパーコンピューターを誰もが数十万円で買える時代になったということです。
小宮山 そういう劇的な技術進化と低価格化が、今後は生成AIの世界でも起こる、しかも加速度的に進んでいくだろうということですね。
山口 そのとおりです。私はAIを「正解を出す機械」だと捉えています。今後、AIの急激な普及によって「正解」の供給量が膨大に増えていくでしょう。供給量が増えると価値が下がるのは経済学の基本原則ですから、正解を出すことの価値が急速に下がっていくはずです。この変化に人間側が追いついていないことに、私は強い危惧を感じます。いまだに「正解」を出す能力が、人間の優秀さを測る基軸になっていると思うからです。
これまで世の中には多くの「問題」が存在する一方で、「正解」が不足していました。だから正解を出せる人が重視され、教育システムも労働市場もその前提で形成されてきた。正解を出せる人が優秀な人材だと見なされ、そういう人が一流大学を卒業して弁護士や医師、金融機関のトレーダーなど給与水準の高い職業に就いてきた。しかし今や、これらの分野にAIが本格的に導入され始めています。すでに欧米の投資銀行のトレーディング業務を、人間はほとんど行っていません。短時間で大量のトライ&エラーを繰り返し、最適なトレーディングの要件を導き出すのはAIのほうが得意だからです。
また法務の領域も、これまで大手法律事務所のベテラン弁護士たちが数週間かけて作成していたM&A契約書のドラフトを、AIがわずか15分で作るようになったといいます。しかも速いだけでなく、人間と違って品質のばらつきも少ない。
この現象は、あっという間にあらゆる業種・職種に広がるでしょう。しかし企業の人事も、学校教育や大学受験などの関係者も、まだその認識に至っていない気がします。
小宮山 非常に興味深い指摘ですね。われわれ三菱総合研究所のようなシンクタンクも、正解を出すことを得意とする人間の集団といえるかもしれない。実際、AIの急激な進化の中で、シンクタンク事業が重大な岐路に立たされているのは事実です。
ただ、私は少し違う捉え方をしています。受験勉強のようにもともと正解があるものに対して答えを出すことは、AIが得意とするところでしょう。しかし本当の意味で優秀な人材とは、正解のないものに対して答えを導き出す人たちだと思うのです。優れた研究者たちは自分のことを「正解を出すのが得意」とは決していわないはずです。研究とは本来、正解のない問題に徹底して向き合い、自分なりの新たな解決策を構想していく知的活動ですから。
でも実際には、AIに代替されてしまうような、本来の研究とは呼べない活動をしている研究者も多いのでしょう。AIの普及で正解を出すことの価値が下がれば、真の意味での研究に携わってこなかった人が淘汰されていく。当社もその真価が問われていくのだろうと思います。
「正解」の価値が低下する時代の人材育成
小宮山 同様のことは、あらゆる業種でもいえると思います。そこで重要になってくるのが、山口さんが指摘された教育や人事の問題です。
例えば法務の分野はおっしゃるとおり、かなりの部分で「正解」が求められる世界であり、法律という明確なルールと、過去の膨大な判例、この2つの要素を掛け算して、最も合理的な解決策を導き出すことが求められます。ただし、法律家の仕事はそれだけではありません。法律の知識を前提としつつ、対話を重ねる中で依頼人からの信頼を獲得し、問題の本質を見極め、法律によってどう解決できるかを考えていく。AIは過去の判例を調べることはできても、この根底の部分は代替できず、ここは引き続き人間が担うべきでしょう。
山口 「正解を出す能力」ではなく「問題をつくる能力」ですね。
小宮山 そうですね。ただ今後、多くの仕事がAIに代替されていくと、結果的に「問題をつくる能力」を持った人材を発掘したり育成したりするのが難しくなるのではないかと心配しています。
仮に大手の法律事務所に1000人ほどの弁護士がいるとすれば、その中に「問題をつくる能力」を備えたリーダー的な人材が100人程度はいるでしょう。そうした能力は互いに刺激し合い、知識や経験を共有し合う中で磨かれていきます。しかし近い将来、法律の知識だけを持っている人、過去の判例を調べるだけの人は要らなくなり、AIさえあれば法律事務所には「問題をつくる能力」を持つ人材がごく少数いればいい、ということにもなりかねません。でもそうなったとき、その少人数の中からリーダー的人材を発掘・育成できるのか。これはかなり難しいテーマだと思います。
山口 なるほど。私は「正解を出す能力」を求める価値観を見直して、教育や労働市場を改革することが不可欠と考えていましたが、それだけでは足りないと。AIが代替できない人間的能力を、AI時代にどう育むのか。経済学の原理でいえば、自分が提供している財の価値が下がったら、価値の高い別の財を提供しようと考えるはずですが、そのシフトは簡単ではないだろうということですね。
AIは社会変化の予兆を感知できるか
小宮山 私は2022年秋以降、生成AIにはたしてどれほどのことができるのか、まずは徹底的に使ってみようと、毎日のように対話してきました。性能が急激に向上しているのは実感します。
当初は一目瞭然の誤った情報を、まことしやかに語ることが多かったのですが、最近は自分の専門分野でない限り、正しい情報か否かが直感的にはわからなくなってきた。そのため、最近はその正しさを確認する作業に時間を取られています。AIが出す正解が本当に正しいのかどうかを確認する役割は、引き続き人間に求められるのでしょう。
山口 おっしゃるとおりですね。先ほど私は「正解」という言葉をやや乱暴に使いましたが、この文脈での正解には2つあると思います。1つは「1+1=2」のように数理的、あるいは形式論理学的に厳密であるという意味での正解。もう1つは「社会的にコンセンサスが得られたもの」としての正解です。
例えば、私の中学時代の歴史教科書には史実として書かれていた事柄が、最近の歴史研究でそうではなかったことがわかり、現在の教科書では違う説明になっている、といったことがあります。社会のコンセンサスが変容したのです。しかし生成AIに問うと、以前の教科書の内容を回答することが多い。膨大なネット空間のデータからいちばん多い答え、統計分布でいう「中央値」にあるものを正解として語るからです。
私はここに人間の重要な役割があると感じます。社会が変わるということは、「中央値」ではなく「外れ値」の意見を起点に新たなコンセンサスが形成されていくということです。かつて小宮山先生が「サステイナビリティ学」を提唱された当時も、この言葉はまだ日本において中央値の意見ではありませんでした。社会変化を予兆するデータが出てきたとき、それを外れ値として排除するのか、新たな意味づけをするのか。今のところAIにその判断はできず、統計的な処理に基づき、外れ値だから正解ではないとAIは考える。外れ値に新たな意味づけができるのは、人間だけだと思うのです。
小宮山 ただし最近の生成AIは、中央値だけとは思えない回答も増えてはいます。例えば、市場を支配する大企業が革新性を失い、小さなスタートアップに駆逐されていく「イノベーションのジレンマ」のような現象を学習して、外れ値を取り込む機能を持ち始めたのかもしれません。とはいえ、究極的には「何が正しいのか」を決めるのは人間の役割であるはずです。
AIも欲望を持つ!? 問われる人間の役割
山口 1970年代、アメリカの安全保障分野のシンクタンクが、センセーショナルなレポートを発表しています。彼らは核戦争が起こった場合に備え、アメリカ国民を守る核シェルターの建造を想定しました。ただ予算制約などもあり、アメリカ国民全員を収容することは不可能です。そこで彼らは「健康な女性と子どもだけを収容するシェルターを造るべき」と結論づけた。当然ながら全国民から「その他の人を見殺しにするのか」と強烈な倫理的バッシングを受けましたが、このエピソードが示唆するのは「効果関数(あるいは目的関数)」をどう設定するかというテーマだと私は思いました。このシンクタンクは「限られた条件下で核戦争後に最小限のアメリカ国民が生き残ること」を解とする効果関数を設定し、最適解を導き出したわけです。そこにほとんどヒューマニズムは介在していないわけですが、効果関数を決めた以上は、これが正しい答えということになる。
おそらくこれはAIが正解を導く場合も同様で、何がいいことなのかという効果関数を与えると、それに従って答えを出す。AIは欲望を持たないとよくいわれますが、AIに効果関数を与えることは、欲望を持たせるのとほぼ同義です。かなり留意しないと、このシンクタンクのレポートのような正解を、人間が対応できないほどのスピードでAIが次々と導き出していく可能性もあります。その意味で、人間の役割を突き詰めると、AIに与える効果関数を決めることだと思うのです。
小宮山 まったく同感です。「地球の持続可能性」を最優先するという効果関数では、地球上から人類が消滅することが望ましい、という最適解もありえます。しかし人類にとってそれは正しくありません。正しさとは何か、本当に難しい問題ですが、その判断を支える価値の地平のようなものを、これから人間がますます考えていかなければならないのでしょう。(後編に続く)
●関連ページ
日本企業のDX推進状況調査結果【2024年度版】
「経営戦略とDXの連動」や「人間とAIの分担」がビジネス変革の鍵
※この対談は、『フロネシス25号 その知と歩もう。』(東洋経済新報社刊)に収録したものを再構成したものです。